Академический Документы
Профессиональный Документы
Культура Документы
emilio_del_moral@ieee.org www.lsi.usp.br/~emilio
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Axnio Soma
Dendritos
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Dcada de 40: o neurnio McCullock and Pitts Dcada de 50:Em 1956 na 1a Conferncia Internacional de Inteligncia Artificial, foi apresentado um modelo de rede neural artificial pelo pesquisador Nathaniel Rochester, da IBM. Em 1959, foi demonstrada a rede Adaline Dcada 1960: a rede Perceptron de Rosenblat Em 1969, Marvin Minsky e Seymour Papert publicaram um livro chamado Perceptrons
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Em 1982, John Hopfield, apresentou um sistema neural artificial que permitia memorizarimagens nas interconexes entre os neurnios. Ainda em 1982 a primeira conferncia Estados Unidos - Japo sobre redes neurais realizou-se na cidade de Kioto. No Brasil, em 1994 ocorreu o primeiro congresso de Redes Neurais. Quadro atual ... SBRN / IJCNN / ICANN / ENNS / NNS etc ....
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
O Neurnio Biolgico
Dcadas de 50 e 60: neurnio biolgico passou a ser visto como um dispositivo computacional elementar do sistema nervoso, com muitas entradas e uma sada. Entrada - Conexes Sinpticas Informao - Impulsos Nervosos Impulso Nervoso: depolarizao da membrana celular
Potenciais de Ao
Tempo
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
x1 x2 . . . xn
w1 w2 wn
Funo de Soma
Pesos (ajustveis)
soma= xi * wi i=1
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
w1 w2 wn
Filtros adaptativos / previsores lineares x(n+1) = a.x(n) + b.x(n-1) + c.x(n-2) + ... a, b, c ... Sao adaptados para otimizar a previsao Face a um conjunto de treinamento
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
... Vendo com mais detalhe ... a relao entre estmulo e atividade na sada no linear:
Potenciais de Ao
Tempo
Saturao
Estmulo Sublimiar
Depolarizao da Membrana
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
x0 Entradas x1
Funo de Soma
Sada i
x2
Pesos
Funo de Transferncia
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
x0
ENTRADA
y
1
y = fT ( wi xi - )
xN -1
wN -
SADA
Saturao
(Freq. Sat.)
Estmulo Sublimiar
Depolarizao da Membrana
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
SIGMIDE
1,2 1 0,8 0,6 0,4 0,2 0 -6 -4 -2 0 2 4 6
TANGENTE HIPERBLICA
1,5 1 0,5 0 -6 -4 -2 -0,5 0 -1 -1,5 2 4 6
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
R a m p in g F u n c t io n ( fu n o d e r a m p a )
x 1 y
1
s < 0 , y = -1 s > 0, y = 1
S ig m o id e F u n c t io n ( f u n o s ig m id e ) x
1
S ig m o id e F u n c t io n ( f u n o s ig m id e ) x 1
-1
y
y = 1 /(1 + e -s)
Com escalamento do argumento, pode-se abarcar os universos digital e analgico / linear e no linear simultaneamente
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Hiperplano Separador
B B B B B B B
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Axnio
Sinapse
Dendritos
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Ex: aplicao em metrologia e linearizao de sensores trabalho de mestrado de Itamar Magno Barbosa
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
y=F(x1,x2,x3,x4 .) F desconhecida Possibilidade: regressao linear / regressao no linear Problema: Com que forma funcional??? Chute 1: y = a.x1 +b.x2 +c.x3 +d.x4 + etc Chute 2: y = a.x1.x1 +bx1.x2 +c.x2.x2 +d.x1.x3 + Chute 3: y = [a.x1.x2 +c.log(x3)]*d.x4 + etc Chute 4: y =
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
O aprendizado por exemplos do MLP permite que ele realize diversas funes sem a necessidade de um modelo matemtico conhecido / confivel Redes Neurais possuem capacidade de aprender por exemplos As informaes so apresentadas a rede que extrai informaes a partir dos padres apresentados
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Aprendizado Supervisionado
As informaes so apresentadas rede sob forma de padres de entrada e os resultados desejados so conhecidos previamente. O supervisor verifica a sada da rede e a compara com a sada esperada Minimizao da diferena Os algoritmos mais conhecidos so : Regra Delta Backpropagation
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Quando ocorre erro no reconhecimento / tratamento de uma entrada, um ajuste sinptico necessrio. O ajuste sinptico representa o aprendizado em cada neurnio do fato apresentado O ajuste sinptico procura corrigir os pesos de modo que se produza a sada desejada diante da respectiva entrada. Esse clculo visa somar ao peso atual, um valor que corresponda a quantidade de erro gerada pela rede, e desta forma corrigir o valor do peso. O conhecimento dos neurnios reside nos pesos sinpticos.
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
resultado esperado
Algoritmo: .Aplicar entrada X .Comparar sada Y com a sada desejada .Se sada estiver errada ento .Calcular ajuste em pesos .Aplicar nova entrada
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
A etapa calcular erro obtida atravs da Regra Delta: wi (n + 1) = wi(n) + Regra Delta traduzida... Erro = sada esperada - sada obtida Peso novo = Peso antigo + (Erro * Entrada * Constante)
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
M T W = MID =1
wij nodes
12% noise Aplicaes prototpicas de redes associativas operando em strings binrios: recuperao de padres a partir de verses distorcidas ou parciais dos mesmos
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
O aprendizado auto-supervisionado no requer sadas desejadas e por isso conhecido pelo fato de no precisar de professores para o seu treinamento. Para o treinamento da rede, so usados apenas os valores de entrada. A rede trabalha essas entradas e se organiza de modo que acabe classificando-as, usando para isso, os seus prprios critrios.
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Pesquisadores de trs diferentes reas do IPT e EPUSP Processamento de sinais / Reconhecimento de padres / Inteligncia computacional so particularmente importantes na implementao das componentes 1 e 3 acima
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP Aplicao das RNAs na Confiabilidade Metrolgica
Aplicao das MLPs nas curvas de calibrao da Balana Externa do tnel de vento TA-2. Balana Externa => Instrumento de medio de foras e momentos aerodinmicos.
Sendo os smbolos: w = vetor pesos sinpticos J = matriz Jacobiana = taxa de aprendizado e = vetor erros na sada uj2 = matriz de covarincias I = matriz identidade
Ajuste clssico dos pesos sinpticos em MLPs: w (n+1) = w(n) (JT(n) J(n)+I)-1 JT(n) e(n) Proposta na dissertao de mestrado => Algoritmo de aprendizado para MLPs, levando em considerao as incertezas associadas s medies : w (n+1) = w(n) (JT(n) (uj2)-1 J(n)+I)-1 JT(n) (uj2)-1 e(n)
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
a)
c)
b)
d)
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Kovcs, Zsolt L. - Redes Neurais Artificiais - Fundamentos e Aplicaes, Collegium Cognito, 1996 Lippmann, Richard P. - An Introduction to Computing with Neural Nets, IEEE-Magazine April, 1987 Referncias de diversos nveis de profundidade atravs
do site ww.lsi.usp.br/~emilio Simon Haykin Neural Networks: A Comprehensive Foundation, 1999 tambm traduzido
PSI-2222 Prof. Emilio Del Moral Inteligncia Computacional e Redes Neurais 2005 EPUSP
Minhas coordenadas .
Prof. Emilio Del Moral Hernandez Escola Politcnica da Universidade de So Paulo Departamento de Eng. De Sistemas Eletrnicos
emilio_del_moral@ieee.org www.lsi.usp.br/~emilio