Академический Документы
Профессиональный Документы
Культура Документы
Réseaux de Neurones
Philippe JAUFFRET
Laboratoire des Systèmes d ’Information Chimique
UMR 5076 du CNRS - Montpellier
<pj@chimie.u-strasbg.fr>
>
sommaire
28/12/2002 41 2
28/12/2002 41 3
Cerveau humain :
axone
~1010 neurones
synapses
~104 connexions/neurone
noyau
Signal
de sortie
Σ des signaux
d ’entrée
28/12/2002 41 4
W1
Signal
I2 W2 ΣW S ≥ σ ?
i i de sortie
W3
I3
28/12/2002
Sortie = { =0 (-1) si ΣW S < σ
≠0 si ΣW S ≥ σ
41
i i
i i
28/12/2002 41 9
• élucidation de spectres
(corrélations spectres -> structures)
• détermination de la structure secondaire des protéines
• diagnostics de dysfonctionement en contrôle de
processus
• études QSAR (entrées de types « tables de
connectivités » ou propriétés physico-chimiques
calculées)
• classification de réactions
28/12/2002 41 10
1 (oui) σ entrées
ΣWiSi ≥ σ ? 0 (non)
Procédure d ’apprentissage:
on soumet 1 à 1 des exemples
pour lesquels on connaît la réponse souhaitée
Si la réponse est correcte, on continue
Si la réponse est 1 (au lieu de 0), on
décrémente le poids des entrées actives
Si la réponse est 0 (au lieu de 1), on
augmente le poids des entrées actives
28/12/2002 41 11
0 λ (cm-1) 0
3500 600 3500 600
Spectre IR de C2H5NH2 Spectre IR de NO
D ’après H.M. Cartwright « Applications of Artificial Intelligence in Chemistry » Oxford University Press, 1993.
28/12/2002 41 12
Absorbance (λ=600cm-1)
Absorbance (λ=700cm-1)
Absorbance λ(=800cm-1)
Absorbance (λ=900cm-1)
Absorbance (λ=1000cm-1) Si oui, alors présence de
Absorbance (λ=1100cm-1) ΣWiSi ≥ σ ? C2H5NH2 ou de NO
Absorbance (λ=1200cm-1)
Absorbance (λ=1300cm-1)
Absorbance (λ=1400cm-1)
Absorbance (λ=1500cm-1)
Absorbance (%)
Spectre IR du Fréon
Longueur
1300 800 d ’onde (cm-1)
+ w 2s 2 ⇒ mission
w 1s 1
impossible !
(-,-) (-,1300)
Pic 2
1
Pic à 800 ? 0,5
1
1
0,5
1
-1
Pic à 1300 ? 1,5
1
0,5 Valeur du seuil pour une cellule 1 Valeur de sortie d ’une cellule
28/12/2002 41 16
28/12/2002 41 17
erreur
entrées
Sorties Sorties
observées attendues
28/12/2002 41 19
28/12/2002 41 21
28/12/2002 41 22
28/12/2002 41 23
Neurone (n-vecteur)
Poids de la composante i
Carte de Kohonen
(mXm neurones)
28/12/2002 41 24
28/12/2002 41 25
28/12/2002 41 26
28/12/2002 41 27
O O H
O
H
δ
charge σ -365 -391 -26
charge π 0,00 0,00 0,00
électronégativité σ-résiduelle 9,64 9,33 -0,31
électronégativité π-résiduelle 3,91 3,18 -0,73
polarisabilité 6,89 4,32 -2,57
pKa 31,0 30,0 -1,0
28/12/2002 41 30
Réduction et alkylation
Cassure d’époxides, d’éthers,
de lactones et d’esters
Oxydation des alcools
Formation d’époxides, d’éthers,
de lactones et d’esters
Réutilisabilité:
Un réseau de neurones n ’est pas
programmé pour une application mais
pour une classe de problèmes : après
une phase d ’apprentissage adéquate,
il peut traiter de nombreuses tâches.
28/12/2002 41 32
Tolérance de pannes :
le dysfonctionnement d ’une faible
proportion des neurones n ’affecte pas
profondément le fonctionnement
général (on parle de « dégradation
douce »)
28/12/2002 41 33
robustesse
Les couches cachées du réseau
forment une représentation abstraite
des données (concepts), qui permettent
de savoir catégoriser des données non
traitées lors de l ’apprentissage (non
prévues).
28/12/2002 41 34
parallélisme
Les RN sont par essence des
« machines parallèles » et peuvent donc
bénéficier directement des architectures
multi-processeurs (tous les neurones
d ’un même niveau sont indépendants)
28/12/2002 41 35
28/12/2002 41 36
Logique floue
Le traitement modal des données est
couvert implicitement par les RN
28/12/2002 41 37
28/12/2002 41 38
Processus d ’apprentissage
• Il peut être extrêmement long.
• L ’apprentissage par rétro-propagation des erreurs peut
converger vers une solution sous-optimale.
• Paralysie du réseau : les poids synaptiques deviennent si grands
que leur modification est inopérante sur le comportement des
neurones (dépassement de la zone de variation de la sigmoïde)
• Surspécification : lorsque l ’apprentissage est trop prolongé, le RN
perd son pouvoir de généralisation. Il reconnaît les données de
l ’échantillon d ’apprentissage, mais plus de nouvelles données
« similaires ».
28/12/2002 41 39
Architecture du réseau
Le nombre de nœuds dans les couches d ’entrée et
de sortie sont généralement fixés par l ’application,
mais comment optimiser le nombre de niveaux cachés
et le nombre de nœuds dans ces niveaux ?
28/12/2002 41 40
explicabilité
Il est quasi-impossible d ’expliquer de manière
compréhensible les résultats fournis par un RN.
Un RN peut découvrir empiriquement des lois
et les exploiter dans la résolution de problèmes,
mais il ne peut formuler ces lois.
28/12/2002 41 41
• Un tutorial :
http://www.gc.ssr.upm.es/inves/neural/ann1/anntutorial.html
28/12/2002 41 42