Академический Документы
Профессиональный Документы
Культура Документы
XVIII Semana da Ciência da Computação, UNESP Rio Claro, 20 de outubro de 2010 logo
Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 2
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation
Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 3
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation
Resumo e História
Objetivos do Mini-curso
Proposta
Conhecimentos básicos sobre a ferramenta computacional de
Aprendizado de Máquina: As Redes Neurais Artificiais (RNA).
Inspiração
Computação, Biologia e Neurociência.
Objetivos
Construir a máquina inteligente.
logo
Resumo e História
logo
Resumo e História
logo
Resumo e História
Resumo e História
Resumo e História
Resumo e História
Histórico
1943: McCulloch e Pitts: primeiro modelo matemático do
neurônio.
1948: livro Cybernetics de Wiener.
1949: palestra de Von Neumann na Universidade de
Illinois: divulgação da teoria de McCulloch e Pitts
1949: Hebb: The Organization of Behavior: regra de
aprendizagem para a modificação sináptica.
1951: Minsky e Edmonds: primeiro computador de Redes
Neurais: SNARC - Stochastic Neural-Analog
Reinforcement Computer.
1958: Rosenblatt: perceptron.
1969: Minsky e Papert: Perceptrons: livro com resultado
negativo sobre a capacidade de representação de uma logo
rede neural de uma camada.
Uma Introdução às Redes Neurais Artificiais 10
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation
Resumo e História
Histórico
Desenvolvimento de Aplicações
Aplicação de RNA
logo
Desenvolvimento de Aplicações
Desenvolvimento de Aplicações
Topologias
Topologia
Topologias
Colunas no córtex
logo
Topologias
Camadas da RNA
logo
Topologias
1
M. I. Jordan. Attractor Dynamics and Parallelism in a Connectionist
Sequential Machine. Proceedings of the Eighth Annual Cognitive Science logo
Topologias
2 logo
J. L. Elman. Finding Structure in Time. Technical Report, Center for
Research in Language, UCSD, Number CRL-8801, April 1988.
Uma Introdução às Redes Neurais Artificiais 19
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation
Topologias
Modelos Clássicos
logo
Topologias
Vantagens:
solução naturalmente paralela,
robusta, tolerante a falhas,
pemite a integração de informações oriundas de fontes ou
tipos diferentes,
sistema adaptativo, capaz de aprender,
mostra certo grau de autonomia no aprendizado,
performance muito rápida no reconhecimento.
Limitações:
ainda muito difı́cil explicar seu comportamento, por causa
da falta de transparência,
soluções não escalam bem... computacionalmente cara
para problemas de maior porte,
ainda muito distante da realidade biológica. logo
Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 22
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation
O Cérebro humano
logo
logo
O Cérebro humano
logo
O Cérebro humano
logo
A hipótese de Hebb
Conhecimento: associações,
Plasticidade do SNC:
sinapses são criadas e destruı́das,
pesos sinápticos mudam de valor,
permite a aprendizagem: auto-organização interna que
permite:
codificação de conhecimento novo,
reforço de conhecimento existente.
Como dar um substrato neural ao aprendizado de
associações entre fatos do mundo?
Hipótese de Hebb (1949):
reforça-se a conexão entre dois nós que são altamente
ativados ao mesmo tempo.
Este tipo de regra é uma formalização da psicologia
associacionista, que assegura que associações são logo
acumuladas entre coisas que ocorrem juntas.
Uma Introdução às Redes Neurais Artificiais 29
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation
A hipótese de Hebb
logo
logo
logo
Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 33
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation
McCulloch-Pitts
Warren McCulloch
logo
McCulloch-Pitts
4 logo
W. S. McCulloch and W. Pitts. A logical calculus of the ideas immanent in
nervous activity. Bulletin of Mathematical Biophysics, 5, 115-133, 1943.
Uma Introdução às Redes Neurais Artificiais 35
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation
McCulloch-Pitts
logo
McCulloch-Pitts
xi : entradas (binário);
wi : pesos sinápticos (real, porque as sinapses podem
inibir (-) ou excitar (+) e têm intensidades diferentes);
A computação ocorre no soma:
n
X
xi · wi
i=0
x0 = 1 e w0 = β = -θ
β = bias e θ = limiar de ativação.
logo
McCulloch-Pitts
logo
McCulloch-Pitts
logo
McCulloch-Pitts
Funções de ativação
logo
O Perceptron
O perceptron
O Perceptron
logo
O Perceptron
logo
O Perceptron
OU Exclusivo
E por n retas?
logo
O Perceptron
Limitações do perceptron
logo
Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 46
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation
logo
logo
logo
logo
logo
a competição resolve:
logo
logo
logo
logo
logo
logo
logo
Redes de Willshaw5
5
David J. Willshaw and Christoph von der Malsburg. How patterned neural
connections can be set up by self-organization. Proceedings of the Royal logo
Redes de Willshaw
logo
Redes de Willshaw
logo
Redes de Willshaw
logo
Redes de Willshaw
logo
Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 64
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation
Algoritmo LMS
Algoritmo LMS
logo
Algoritmo LMS
Se...
a rede aprende perfeitamente os padrões de treinamento, e
os padrões de treinamento refletem perfeitamente a tarefa
que se quer aprender
Então...
após o treinamento, o erro será zero.
Algoritmo LMS
l
X
E(w) = Ep
p=1
n
1X
Ep = (tk − yk )2
2 logo
k=1
Backpropagation
Backpropagation
Backpropagation
Error Backpropagation
logo
Backpropagation
Backpropagation
logo
Backpropagation
Backpropagation
Os problemas do backpropagation:
É bastante caro computacionalmente (lento),
Não resolve bem problemas de grande porte,
Às vezes, a solução encontrada é um mı́nimo local - um
valor localmente mı́nimo para a função erro.
Vantagens do backpropagation:
poder de aproximação universal:
dada uma função contı́nua, existe uma rede de duas
camadas (uma escondida) que pode ser treinada por
backpropagation de modo a aproximar o quanto se queira
essa função.
algoritmo mais usado.
logo
Bibliografia I
Bibliografia II
logo
Bibliografia III
[6] J. L. Elman
Finding Structure in Time.
Technical Report, Center for Research in Language,
UCSD, Number CRL-8801, April 1988.
[7] S. Haykin
Neural networks - a comprehensive foundation, 2nd.
edition.
Prentice Hall, 1999.
[8] D. O. Hebb
The Organization of Behavior: A Neuropsychological
Theory.
Wiley, 1949. logo
Bibliografia IV
[9] J. J. Hopfield
Neurons with graded response have collective
computational properties like those of two-state neuron.
Proceedings of the National Academy of Sciences (USA),
79:2554–2558, 1982.
[10] A. K. Jain, J. Mao, and K. M. Mohiuddin
Artificial Neural Networks: A Tutorial.
IEEE Computer, March 1996, pp. 31–44.
logo
Bibliografia V
[11] M. I. Jordan
Attractor Dynamics and Parallelism in a Connectionist
Sequential Machine.
Proceedings of the Eighth Annual Cognitive Science
Society Conference, pp. 531–546, Amherst, MA. Erlbaum,
1986.
[12] E. R. Kandel, J. H. Schwartz, and T. M. Jessell
Principles of Neural Science. Fourth Edition.
McGraw-Hill, 2000.
[13] T. Kohonen
Self-organized formation of topologically correct feature
maps.
logo
Biological Cybernetics, vol. 43, pp. 59–69, 1982.
Uma Introdução às Redes Neurais Artificiais 77
Bibliografia
Bibliografia VI
[14] G. G. Matthews
Neurobiology Molecules, Cells and System
Blackwell Science Inc., Cambridge, Massachusetts -
London, England, 2 edition, 2001. Figures:
http://www.blackwellpublishing.com/
matthews/figures.html. Acc. February, 2005.
[15] J. L. McClelland and D. E. Rumelhart (Eds.)
Parallel Distributed Processing - Explorations in the
Microstructure of Cognition. Volume 2: Psychological and
Biological Models.
A Bradford Book - The MIT Press, 1986.
logo
Bibliografia VII
logo
Bibliografia VIII
[18] M. Minsky
A Neural-Analogue Calculator Based upon a Probability
Model of Reinforcement.
Harvard University Psychological Laboratories, Cambridge,
Massachusetts, January 8, 1952.
[19] M. L. Minsky and S. Papert
Perceptrons: An Introduction to Computational Geometry.
MIT Press, Cambridge, Massachusetts, 1969.
logo
Bibliografia IX
[20] J. Murre
Introduction to Connectionism.
Universiteit van Amsterdam en Universiteit Utrecht, 2001.
http:
//www.neuromod.org/courses/connectionism/
introduction-to-connectionism/
[21] NEURALTOOLS.
http://www.palisade.com/neuraltools/?gclid=
CMr4tOyZlqQCFYTu7QodLCuPCA.
logo
Bibliografia X
[22] J. L. G. Rosa
Biologically Plausible Artificial Neural Networks.
Tutorial de duas horas, ministrado no IJCNN 2005 -
International Joint Conference on Neural Networks,
Montréal, Canada, em 31 de julho de 2005. Disponı́vel em
http://ewh.ieee.org/cmte/cis/mtsc/ieeecis/
contributors.htm.
[23] F. Rosenblatt
The perceptron: A perceiving and recognizing automaton.
Report 85-460-1, Project PARA, Cornell Aeronautical Lab.,
Ithaca, NY, 1957.
logo
Bibliografia XI
Bibliografia XII
logo