Академический Документы
Профессиональный Документы
Культура Документы
soma
J.Korczak, ULP
J.Korczak, ULP
Neurone biologique
Signal: action potentielle (ang.spike)
action potential
1mm
J.Korczak, ULP
100m
J.Korczak, ULP
32000 quations diffrentielles! 8021 modles des canaux ioniques 19200 paramtres daffinement description morphologique
Modles
Molecules Canaux ionique
J.Korczak, ULP
J.Korczak, ULP
Histoire
La modlisation du neurone [McCulloch, Pitts, 1943] Le processus dapprentissage [Hebb, 1949] PERCEPTRON [Rosenblatt,1958-1962]
Convergence dun algorithme itratif dadaptation de poids
Machine de Bolzmann [Hopfield, 1982] Rtro-propagation - MLP [Rumelhart, Parker, Le Cun, 1985] Cartes topologiques auto-adaptatives [Kohonen, 80s]
J.Korczak, ULP 7
J.Korczak, ULP
Sparation linaire
wkx > s XOR 1 x1 wkx < s 0 x2
?
1
Un ensemble d'exemples est linairement sparable si il existe un classifieur linaire qui peut tous les apprendre. Pour n entres binaires, il existe 2n vecteurs d'entres possibles, et 22 n fonctions binaires.
J.Korczak, ULP
J.Korczak, ULP
10
Applications
Reconnaissance des formes, classification Reconnaissance/synthse de la parole Prvision et modlisation Diagnostic Compression de donnes Vision, robotique, commende de vhicule, contrle adaptatif Nouvelles applications Recherche dinformations dans le Web Extraction dinformation, veille technologique Multimdia (indexation) Data mining
J.Korczak, ULP 11
J.Korczak, ULP
12
J.Korczak, ULP
14
Le MLP est compos de couches successives : une couche dentre (o sont prsentes les entres), une ou plusieurs couches caches, et une couche de sortie (o sont prsentes les sorties calcules par le MLP). Lapprentissage des MLP : - algorithme de rtro-propagation du gradient - algorithme de gradient conjugu - mthodes de second ordre, Les MLP sont des approximateurs universels.
J.Korczak, ULP 15
couche d entre
couches caches
couche de sortie
J.Korczak, ULP
16
Fonction dactivation
Fonction non linaire - choix typiques : fonction logistique, tangente hyperbolique F(x) = 1/(1+e-x) F(x)= tanh(x)
X1
F w1 w2 wi wk
0
Y1 Y2 Y3
X2 X3
xi*w i
Entres
J.Korczak, ULP
Sorties
17
MLP : apprentissage
Principe : Initialisation des poids des valeurs alatoires Prsentation dun exemple Propagation des signaux dans le rseau Calcul des erreurs et propagation en sens rtrograde Modification des poids de connexions
Arrt de lapprentissage
Critres classiques
lerreur passe en dessous dun seuil borne sur le temps de calcul vitesse de progression
20
Problme : la sortie dsire pour un neurone cach ? dEp/dwij = (dEp/dj)(dj/dwij) =(dEp/dj) yi on pose j= (dEp/dj), do wij(t+1) = wij(t) (t) j yi
oi wij
j f
oj wjk
k f
tj
mais j= (dEp/dj)= k(dEp/dk) (dk/dj)= k k (dk/dj)= do = k k wjk (dyk/dj) j = 2(oj - tj) f(j) j = (k wij k) f (j)
21 J.Korczak, ULP
1) fonction de cot : E(t)=p(op-tp)2 2) gradient total : w(t+1) = w(t) (t) gradw (Ep(t)) 3) calculer dEp/dwij
J.Korczak, ULP
Rtrotro-propagation du gradient
x1 x2 x3 wij o1 o2 o3 ...
-
t1
-
t2 t3
...
xn
Vecteur yi= wijxi d entre Fonction sigmode
J.Korczak, ULP
...
tm F(y) = F(y)(1-F(y))
23
om
XOR
0,5
W ij=0 0 0
1
bias 0 0
0,5
0
1 X Y
F(y)=1/(1+e-ky)
J.Korczak, ULP
24
XOR
X 0 0 1 1 Y XOR(X,Y) 0 0 1 1 0 1 1 0
W ij=0
XOR z 0,5
0 0 0
1
bias 0 0
0,5 h
0
h=f(netj) kwkj
bias
1 x
XOR X Y XOR(X,Y) 0 0 0 0 1 1 1 0 1 1 1 0 1
XOR
0,91
-3,29 10,9 -4,95 -4,95
XOR
X 0 0 1 1 Y XOR 0 0 1 1 0 1 1 0 0,91
-3,29 10,9
XOR
-4,95
1
-2,76
0.98
7,1 7,1
1
-2,76
-4,95
0,98
7,1 7,1
bias
1 X Y
bias
1 X Y
J.Korczak, ULP
28
[http://lsiit.u-strasbg.fr/afd]
XOR
X 0 0 1 1 Y XOR 0 0,08 1 0,91 0 1,00 1 0,10 0,91
-3,29 10,9
XOR
-4,95
1
-2,76
-4,95
0,98
7,1 7,1
bias
1 X Y
J.Korczak, ULP
29
J.Korczak, ULP
30
J.Korczak, ULP
31
J.Korczak, ULP
32
Apprentissage : Mise jour des poids et outils Mise jour des poids Batch : aprs la prsentation de tous les exemples calcul et stockage lourds si trop dexemples En ligne (on-line) : aprs chaque exemple besoin de tirer lexemple au hasard problmes de convergence plus de 5000 exemples Outils : Matlab, Axone, SNNS
Choix du pas dapprentissage Pas dapprentissage : trop petit -> convergence lente trop grand -> risque doscillations Heuristiques : ajuster le pas au fur et mesure la main en fonction de la forme de la surface derreur Approximations : Premier ordre : Inertie, SuperSAB, Delta-Bar-Delta, Rprop Second ordre : QuickProp, Levenberg-Marquard
J.Korczak, ULP
33
J.Korczak, ULP
34
Dplacement de lobjectif dapprentissage Chaque neurone lintrieur du rseau essaye en mme temps dvoluer pour dtecter une caractristique du problme. Les neurones dune mme couche ne communiquent pas entre eux. Effet troupeau (herd effect) Architecture en cascade : Cascade Correlation
Objectifs :
Explication pour lutilisateur Vrification de logiciels, Dbuggage Exploration de donnes Amlioration de la gnralisation Induction de thories scientifiques Acquisition de connaissances
J.Korczak, ULP
35
J.Korczak, ULP
36
Pdagogiques
37 J.Korczak, ULP
Rseau initial
Apprentissage
Rseau final
J.Korczak, ULP
Authentification biomtrique
Visage
Dcision
50
50
1 00
Grey Sca e l
10 0
n I e t n si t y
1 50
15 0
2 00
20 0
2 50
25 0
n I e t n si t y
Extraction
w1
Accepter, Rejeter
w2
Voix
Effacer les silences
Temps
C15
Bibliographie
Bishop C.M., Neural Networks for Pattern Recognition, Oxford Univ., 1995. Haykin S., Neural Networks: A Comprehensive Foundation, Prentice-Hall, 1999. Rojas R., Neural Networks: A Systematic Introduction, Springer, 1996. Kohonen T., Self-Organizing Maps, Springer, 1997. Hrault J., Jutten C., Rseaux neuronaux et Traitement du Signal, Herms, 1994. Masters T., Practical Neural Network Recipes in C++, Academic Press, 1994.
Online books : http://www.shef.ac.uk/psychology/gurney/notes/index.html Usenet newsgroup : comp.ai.neural-nets FAQ : ftp://ftp.sas.com/pub/neural/FAQ.html Neuroprose : ftp://archive.cis.ohio-state.edu/pub/neuroprose http://lsiit.u-strasbg.fr/afd http://diwww.epfl.ch/mantra/tutorial/french/index.html http://19968.gel.ulaval.ca/notes/RetroPerceptron.pdf http://www.dontveter.com/bpr/bpr.html
J.Korczak, ULP 41