Академический Документы
Профессиональный Документы
Культура Документы
I.1. Introduction
Les réseaux neurones sont des modèles mathématiques et informatiques des
assemblages d'unités de calculs appelés "neurones formels" et dont l'inspiration
originelle était un modèle de la cellule nerveuse humaine. Cet héritage de la
neurobiologie forme une composante importante de la matière, et le souci de maintenir
une certaine correspondance avec le système nerveux humain a amené et continue à
amener une part importante des recherches dans le domaine.
Malgré cet héritage, l'essentiel des travaux d'aujourd'hui ont pour objet le réseau de
neurones formels et non son corrétât neurobiologique. Vu les systèmes de calcul, les
réseaux de neurones possèdent plusieurs propriétés qui les rendent intéressants d'un
point de vue théorique, et fort utile en pratique.
I.2 Historique
1943 : Mc Culloch et Pitts présentent le premier neurone formel.
1949 : He
bbpr
opos
eunmé
cani
smed’
appr
ent
is
sage
.
1958 : Rosenblatt présente le premier réseau de neurones artificiels : le Perceptron. Il
est inspiré du système visuel, et possède deux couches de neurones : perceptive et
décisionnelle.
Dans la même période, le modèle de l'Adaline (Adaptive Linear Element) est présenté
par Widrow Ce sera le modèle de base des réseaux multicouches.
1969 : Minsky et Papert publient une critique des perceptrons en montrant leurs
limites, ce qui va faire diminuer la recherche sur le sujet.
1972 : Kohonen présente ses travaux sur les mémoires associatives.
1982 : Hopf
iel
d dé
mont
rel
’i
nté
rêt d’
uti
li
serl
esr
ése
auxr
écur
rent
spourl
a
compréhension et la modélisation des fonctions de mémorisation.
1986 : Rume
lha
rtpopul
ari
sel
’al
gor
it
hmeder
étr
opr
opa
gat
iondugr
adi
ent
,conç
upa
r
We
rbos
,quipe
rme
td’
ent
raî
nerl
esc
ouc
hesc
ach
éesde
sré
sea
uxmu
lti
couc
hes
.
Les réseaux neuronaux ont été depuis été beaucoup étudiés, et ont trouvé énormément
d’
appl
ica
ti
ons[8].
I.3.2.3 L’
axone
L’
axone
,quie
stàp
ropr
eme
ntpa
rle
rlaf
ibr
ene
rve
use
,se
rtd
emoye
ndet
ran
spor
t
pour les signaux émis par le neurone. Il se distingue des dendrites par sa forme et par
les propriétés de sa membrane externes. En effet, il est généralement plus long (sa
l
ong
ueurva
ried’
unmi
ll
imè
treàpl
usd’
unmè
tre
)quel
esde
ndr
it
es,e
tser
ami
fi
eàs
on
extrémité, là où il communique avecd’
aut
resne
urone
s,a
lor
squel
esr
ami
fi
cat
ionsde
s
dendrites se produisent plutôt près du corps cellulaires. Pour former le système
nerveux, les neurones sont connectés les uns aux autres suivant des répartitions
spatiales complexes. Les connexions entre deux neurones se font en des endroits
appelés synapses oũi
lss
onts
épa
réspa
runpe
tite
spa
ces
yna
pti
qued
el’
ordr
ed’
un
centième de microns [2].
axone
dendrites
Itération
synapse
Figure (I.1) St
ruc
tur
ed’
unne
uro
nebi
olo
gique
.
n
Yi F (Wij X j ) (1)
i
1
i F ( S i ) (3)
x1 W1 Fonction
Sommation D'activation
x2
W2
Si Yi
F
^ Sortie
xd Wd j
I.4.2.2 Laf
onc
tio
nd’
ent
réet
otal
e
h Peut être :
Booléenne ;
n
Linéaire : h
e1 ,..., en Wi ei (4)
i
1
n
Affine: h
e1 ,..., e2 Wi ei a (5)
i
1
Ces deux derniers cas sont les plus fréquents. Dans le deuxième on peut interpréter a
c
ommel
’ut
il
is
ati
ond’
unne
uroneq
uif
our
nir
aitt
ouj
our
sl’
ent
rée-1 au neurone étudié.
Cette notation sera particulièrement utile lorsque nous aborderons les problèmes
d’
appr
ent
is
sagea
vecde
sfonc
tio
nsd’
act
iva
ti
onsàs
eui
l.
Polynomiale de degré supérieur à deux.
I.4.2.3 Fonc
tiond’
act
ivat
ion
Les fonctions d'activations les plus utilisées :
F(x) F(x)
0
x 0 x
F(x) Sature(x)
V
V
x x
U
U
Unef
onc
tions
igmoї
de:
F1 ( x) a (e kx 1) /(e kx 1) (6)
F1(x)
F2(x)
1
+1
1/2
x
x 0
-1
I.4.3.1 Le parallélisme
enot
Cett ions
esi
tueàl
aba
sedel
’ar
chi
tec
tur
ede
sré
sea
uxdene
uron
esc
ons
idérés
c
ommee
nse
mbl
ed’
ent
résélémentaires qui travaillent simultanément.
I.4.3.2 Lac
apa
cit
éd’
adapt
ati
on
is
Celle-c ema
nif
est
etoutd
’abor
dda
nsl
esr
ése
auxdene
uro
nespa
rlacapacité
d’
appr
ent
is
sageq
uipe
rme
taur
ése
audet
eni
rcompt
ede
snouve
ll
esc
ont
rai
nte
soude
s
nouvelles données du monde extérieur. De plus, elle se caractérise par leur capacité
d’
aut
o- organisation qui assure leur stabilité en tant que système dynamique.
I.4.3.4 La généralisation
Lac
apa
cit
édegé
nér
ali
sat
iond
’unr
ése
aud
ene
urone
ses
tsona
pti
tudededonne
r
une réponse satisfaisante à une entrée qui ne fait pas partie des exemples à partir
desquels il est pris [4].
ne
urone
ssontt
rèsgr
ande
s,ma
isl
esne
urone
sd’
unec
ouc
hes
onta
uss
ire
li
ésa
ux
ne
urone
sd’
aut
resc
ouc
hes
,let
outf
orma
ntuns
yst
èmed’
unec
omp
lexi
té
.
D’
unema
niè
regé
nér
ale
,l’
arc
hit
ect
ured
esr
ése
auxdene
uron
esf
orme
lspe
ut
a
lle
rd’
unec
onn
ect
ivi
tét
ota
le(
tousl
esne
urone
sso
ntr
eli
ésl
esunsa
uxa
utr
es)
,àune
c
onne
cti
vit
élo
cal
eou
’le
sne
urone
snes
ontr
eli
ésqu’
àle
ursp
luspr
oche
svoi
si
ns.I
les
t
u
cora
ntd’
uti
li
serd
esr
ése
auxàs
truc
tur
eré
gul
ièr
epourf
aci
li
te
rle
ursut
il
is
ati
ons[2].
Entrées Sorties
Couche
Cachée
1 3
I.6 L’
appr
ent
iss
age
L’
obj
ect
ifdel
’appr
ent
is
sagee
stdef
our
nirun
emé
thodea
uré
sea
uaf
inqu
’il
pu
iss
eaj
ust
erc
espa
ramè
tre
slor
squ’
onl
uipr
ése
ntede
sexe
mpl
ai
resàt
rai
ter
.Ce
rta
ins
réseaux font la différence entre une phase d’
expl
oit
ati
on(
casdupe
rce
ptr
on)
.
Ond
ist
ingueha
bit
uel
leme
ntt
roi
spa
radi
gme
sd’
appr
ent
is
sage:
me
I.6.1.1 Problè sd’
appr
ent
iss
ages
upe
rvi
sé
L’
appr
ent
is
sages
upe
rvi
séc
ons
ist
eàa
jus
terl
espa
ramè
tres du réseau pour que ses
sorties soient suffisamment proches des sorties désirées pour des ensembles
d’
ent
raî
neme
nt.
L’
obj
ect
ife
std’
ada
pte
rler
ése
aupou
rqu
’ils
oitc
apa
bleder
econnaître des exemples
n’
appa
rte
nan
tpa
sné
ces
sai
reme
ntàl
’ens
embl
ed’
apprentissage pour résoudre un tel
problème, deux étapes sont nécessaires :
1. Spécifier une topologie "équation et connexion" du réseaux. La relation
entre les entrées et les s
ort
ie
sdo
itdé
pen
dred’
une
nse
mbl
edep
ara
mèt
res
(poids) ajustables.
2. Spécifier une r
ègl
ed’
app
rent
is
sage
,qul
’onu
til
is
epou
rl’
ada
pta
tiondes
es
paramètres.
3. La r
étr
opr
opa
gat
ione
sta
ctue
lle
mentl
arè
gle d’
appr
ent
is
sagel
apl
us
ut
il
is
ée pourl
’appr
ent
is
sage s
upe
rvi
sé de
sré
sea
ux de ne
uron
es.El
le
généralement utiliser pour des réseaux multicouches mais et elle peu être
appliquée àn’
impor
teque
ll
ear
chi
te
ctur
eàf
onc
tion
sdé
riva
ble
s[1].
I.7 Le
spr
inc
ipal
esr
ègl
esd’
appr
ent
iss
age
Les stratégies de modification des poids synaptiques sont dérivées des règles
générales suivantes :
La règle de Hebb ou le poids des connexions entre deux processeurs
élémentaires est renforcée si les deux processeurs élémentaires sont activés
simultanément ;
La règle Widrow-Hof
four
ègl
eDe
ltar
ègl
eou’l
epoi
dss
yna
pti
quee
sta
dapt
é
pour obtenir la diminution d
el’
err
eure
ntr
elas
ort
ier
éel
led
upr
oce
sse
ur
élémentaire et la sortie désirée ;
L’
appr
ent
is
sag
ecompé
tit
ifda
nsl
equ
elt
ousl
espr
oce
sse
ursé
léme
nta
ire
ssonte
n
compétition basé sur uneme
sur
edes
imi
lar
it
éent
rel
’exe
mpl
eder
éfé
ren
ce
oc
associé à chaque pr e
sse
ure
tl’
exe
mpl
ed’
ent
rée
Les expressions précises des règles dépendent très étroitement de la nature des
f
onc
tionsd’
ent
réet
ota
le,de
sfonc
tio
nsd’
act
iva
ti
one
tdel
ana
tur
econt
inueou
discrète des informations continues dans les cellules des neurones [5].
Cellule activée
Connexion renforcée
Ceci traduit bien le fait que lorsque la connexion entre deux cellules est très forte,
qu
andl
ace
llul
eéme
ttr
ices
’ac
tive
,au
ssi
.Ilf
autdo
nc,pourl
uipe
rme
ttr
edej
oue
rce
r
ôledé
ter
mina
ntl
orsdu mé
cani
smed’
appr
ent
is
sage
,augme
nte
rlep
oidsdec
ett
e
connexion. En revanche, si la cellule émettrices
’ac
tives
ansquel
ace
llu
ler
éce
ptr
ice
l
efa
sse
,ous
ilac
ell
uleé
met
tr
icenes
’ét
aitpa
sac
tivé
e,c
elat
radui
tbi
enl
efa
itquel
a
c
onne
xione
ntr
ece
sde
uxc
ell
ule
sn’
estpa
spr
épon
dér
ant
eda
nsl
eco
mpor
teme
ntdel
a
ul
cell er
éce
ptr
ice
.Onpe
utdonc
,da
nsl
apha
sed’
appr
ent
is
sage
,la
iss
eru
npoi
dsf
aibl
eà
cette connexion.
Notons Wij (t) le pois de la connexion entre le neurone j et le neurone i à
l
’i
nst
antt
.
Su
ppos
onsq
u’e
ntr
ele
sins
tan
tste
tt+δ
t,ona
its
oumi
sler
éseaux à un stimulus, et que
c
est
imul
usa
itpr
ovo
quél
’ac
tiva
tionAi dune
uron
ei,e
tl’
act
iva
tio
nAj du neurone j.
Supposons de plus que Ai et Aj s
oie
ntb
ool
éens(
d’u
npoi
ntdevu
egé
nér
al,i
les
t
c
omp
lèt
eme
nté
qui
val
entquel
’on prenne les valeurs des activations dans (0, 1) ou
(-1, +1)), l
arè
gledeHe
bbs
’éc
rit
W ij ( t t ) Wij ( t ) A i Aj (8)
Oŭμ(
μ> 0) e
stu
npa
ramè
tredel
’i
nte
nsi
tédel
’appr
ent
is
sage[7].
Ac
haquepa
sd’
appr
ent
is
sagek,l
’er
reure
nso
rti
ees
tca
lcu
léec
ommel
adi
ff
ére
nce
entre la cible recherchée t et la sortie y du réseau [6].
1
E k ekT e k (t k y k ) Tk (t k y k ) (t kT t k y kT y k 2 y kT t k ) (10)
2
Le gradient de cette qualité par rapport à la matrice de poids w est donné par :
E k 1 ( y k y kT 2 y kT t k ) (11)
w 2 w
Le gradient se calcul comme suit :
E k
E
E y
k k k (12)
w w yk
w
D’
apr
èsl
’ex
pre
ssi
ond
eEke
tav
ecy
k=wxk+bl
esdé
rivé
espa
rti
ell
ess
ont:
Ek
y k t k (13)
yk
( wx k b)
x kT (14)
w
eàj
La mis ourde
spo
idss
efa
itp
arl
’équa
ti
on:
E
W (k 1) w(k ) k (15)
w
Avec :l
ega
ind’
appr
ent
is
sage(0 1) .
De même, o
nobt
ientl
’expr
ess
iondel
amo
dif
ica
tiond
ubi
ais[6] :
E
b(k 1) b(k ) (t k y k ) b(k ) k . (16)
w
I.8.1.2.2 Unec
ouc
hedec
ell
ule
sd’
ass
oci
ati
on
Cha
cunedec
esc
ell
ule
spe
utê
trec
onne
cté
eàde
sce
llu
lesdel
aré
ti
ne,àd
’aut
res
c
ell
ule
sd’
ass
oci
ati
on,e
tàde
sce
ll
ule
sdedé
cis
ion(
voi
rexp
lic
ati
ons
uiva
nte
).El
lef
ait
la somme des impulsions qui lui viennent des cellules aux quelles elle est connectée.
Elle répond généralement suivant une loi de tout –ou- rien après avoir comparé la
somme effectuée précédemment avec un seuil. Elle peut cependant de la rétine vers les
c
ell
ule
sd’
ass
oci
ation [2].
Figure (I.6) Sc
hémad’
unpe
rce
ptr
on.
Onc
ons
idè
red’
aut
repa
rtqu
’iln’
exi
st
epa
sdec
onne
xion
sent
rede
ux cellules
d’
ass
oci
ati
on,nie
ntr
ede
uxc
ell
ule
sded
éci
si
on.Enf
in,l
esc
onne
xionse
ntr
ece
llu
les
d’
ass
oci
ati
one
tce
llul
esded
éci
si
ons
ontàs
ensuni
quea
ssoc
iat
ionv
ersdé
cis
ion.
Un tel perceptron va être utilisé pour essayer de reconnaître des formes qui lui seront
pr
ése
nté
ess
urs
aré
tine
.Sil
’onn
’ut
il
is
equ’
unec
ell
ulededé
cis
ion,c
ell
e- ci devra
répondre 1 l
ors
quel
afor
mequil
uis
erapr
ése
nté
ecor
res
pondàu
nef
ormequ’
onve
ut
lui faire reconnaître, et 0 dans tous les autres cas [7].
I.8. 3 L’
adaline
Le modèle Adaline a été mis au point par Bernard Widrow pour la résolution du
filtrage adaptatif du signal en 1959. Il appartient à la famille des classifieurs à deux
classes.
I.8. 3.1 St
ruc
tur
edel
’adal
ine
Las
tru
ctur
edel
’ada
linedi
ff
èredupe
rce
ptr
onpa
rl’
uti
li
sat
iond’
unes
eul
ece
ll
ule
d’
ass
oci
ati
one
tl’
uti
li
sat
iond’
unef
onc
ti
ond
ese
uild
iff
ére
nte de celle de Heaviside
(-1 et +1). De plus,i
lut
il
is
euna
lgor
it
hmea
dapt
ati
fpourme
sur
erl
’éc
arte
ntr
elas
ort
ie
réelle et la sortie du proc
ess
euré
léme
nta
ire
.Les
ché
madel
’ada
linee
str
epr
ése
ntée
n
figure (I.7).
Le plus souvent, les entrées sont binaires et la réponse souhaitée est également
bi
nai
re.L’
Ada
linee
stl
ese
ulr
ése
aud
ene
urone
sar
ti
fi
cie
lsut
il
is
éma
ssi
veme
ntda
ns
l
’i
ndu
str
ie. Ce circuit est en effet utilisé dans les télécommunications pour améliorer le
s
ign
als
urbr
uite
npr
ena
nte
ncompt
elava
ria
tiondel
’i
mpé
danc
ede
sdi
ff
ére
nte
sli
gne
s
téléphoniques [5].
I.8. 3.2 Rè
gled’
appr
ent
iss
age
Lar
ègl
ed’
appr
ent
is
saged
el’
adaline, appelée règle de Widrow Hoff ou LMS
utilise la descente de gradient de la fonction de la somme des erreurs quadratiques,
donnée par [6].
2
(17)
m
1
E (w)
2
(t
k 1
k y k )
Avec:
y k w t x k (18)
1
x1
b
w1 y
x2
w2
w x
i i b
xn wn
Figure (I.7) Ar
chi
tec
tur
edel
’Adal
ine
x1 x2 … xd
Ce
ttef
onc
tio
npe
rme
tlas
épa
rat
iondel
’ens
emb
lede
sve
cte
ursxe
nde
uxc
las
sesW1 et
W2 :
x w1 si g ( x) 0
(23)
x w2 si g ( x) 0
g(x) = 0
classew1 classew2
g(x)>0
g(x)<0
s
url
’hy
pot
hès
equel
ece
rve
auh
uma
ins
toc
kel
’i
mag
edeno
tregr
and–mère dans un
neurones particulier placé dans un endroit précis du cerveau. Ces réseaux sont
particulièrement adaptés aux problèmes de classification [5].
I.11 Le rétropropagation
I.11.1 Introduction
Le problème de calcul des erreurs de sortie pour les neurones cachés, limite
l
’ef
fi
cac
itéde
sal
gor
it
hme
sd’
app
rent
is
sages
upe
rvi
sépourl
esr
ése
auxmul
tic
ouc
hes
.
Don
càc
aus
edel
’abs
enc
ed’
uner
ègl
ed’
appr
ent
is
sagec
onv
ena
ble
,le
spe
rce
ptr
ons
étaient limité a une seuil couche pendant plusieurs années, le problème du calcul des
e
rre
ursa
ssoc
iée
sauxne
urone
sca
ché
esaé
tél
evépa
rladé
couve
rtedel
’al
gor
it
hmede
rétro propagation qui peut être appliqué àn’
impo
rteq
uels
yst
èmec
ompo
séd
epl
usi
eur
s
sous systèmes élémentaires qui peuvent être représentés par des fonctions connues,
continues dérivables.
Ava
ntded
éfi
nirl
arè
gled
’app
rent
is
sage
,ondé
fini
tlar
ela
tione
ntr
ele
sso
rti
esdu
r
ése
aud’
unepa
rt,l
ese
ntr
éese
tle
spoi
dsd’
aut
repa
rt.onc
ons
idè
reda
nsc
equ
isui
tle
s
réseaux non récurrents (statiques) multicouches. Pour un réseau multicouches (N)
entrées et (M) sorties, composé de (L) couches {couches cachées plus couche de
sortie}, la somme des entrées de la ji ème unité cachée est [3].
I.11.2.1 Principe
Pourc
onv
erge
rve
rsl
emi
nimum gl
oba
ldel
asur
fac
ed’
err
eur
,onpr
ocè
depa
rla
méthode du gradient, cette technique ajuste les poids dans la direction opposée du
E
gradient instantané de la f
onc
tiond’
err
eurK K
WK
1 T 1 T
E E (t ) [ yd (t ) R(t )]2 (25)
2 i 1 2 i 1
T :e
stl
’ens
emb
led
ese
xempl
esd’
ent
raî
neme
nt.
yd (t ) : Est le vecteur de sortie désiré.
R (t ) : Celui du réseau.
W : vecteur des poids
n
F : Foct
iond’
act
iva
tiont
ell
equ
e:
S t F ( W
N
I Lj (t ) F L
j
L
j
L
j
L
ji xi (t ) + jL ) (27)
I
1
Où:
E
W jiL ( n ) (31)
W jiL ( n )
Avec:
n :C’
estl
enumé
rod
el’
it
éra
tion.
:Pa
sd’
appr
ent
is
sagedé
sign
antl
avi
tes
sedec
onv
erg
enc
e,s
ava
leure
stgé
nér
ale
ment
choisie expérimentalement.
Lec
oef
fi
cie
ntd’
appr
ent
is
sage j
oueu
nrôl
eimpor
tantp
uis
qu’
ilr
ègl
elavi
tes
sea
vec
l
aqu
ell
esef
aitl
ade
sce
ntedugr
adi
ent
;tr
oppe
ti
t,i
lnepe
rme
td’
att
eindr
euneva
leu
r
s
uff
isa
mme
ntf
aibl
edel
’er
reurqu’
aub
outd
’unt
rèsgr
andnombr
ed’
it
éra
tion
s,e
t
mê
me f
aite
ncour
irl
eri
sque d’
un mi
nimum l
oca
l(insatisfaisant) duquel il est
i
mpos
sibl
edes
ort
ir
,tr
opgr
andi
lpe
utc
ond
uir
eàs
’él
oigne
rdumi
nimum d’
err
eur
recherché et donc peut empêcher une solution a
cce
pta
bled’
êtr
eat
te
int
e.
Pour la couche de sortie :
1 T 1 T
D’
apr
ès(
I-25) : E E (t ) (YK (t ) RKR (t )) 2
2 t 1 2 t 1
R
Ladé
rivé
edel
’er
reurE(
t)pa
rra
ppor
taupoi
dsW Kj nous donne :
E (t ) RK S KR (t )
(YK (t ) RK (t )) R R (32)
WKjR
S K (t )
wKj (n)
WKj (n)
R
R
[
WKj (n) J 1
WKjR (n) . I Rj (t ) KR ] I Lj (t ) (33)
Lar
ègl
ed’
ada
pta
tione
stdonn
éepa
r:
Avec:
WKjR .(n 1) WKjR .(n) WKjR .(n) (35)
WkjR (n)
W (n)
R
(36)
Kj
E
Si f est une fonction linéaire : FKjR 1
L’
équ
ati
on(
I-34) devient :
E (t )
(YK (t ) RK (t )).I Lj (t )
R
WKj (n)
Alors :
E I
WKjR (n)
R
WKj (n)
t 1
(YK (t ) RK (t )).I Lj (t ) (37)
T
WKjR (n 1) WKjR (n) (YK (t ) RK (t )).I Lj (t ) (38)
t 1
L’
équ
ati
onde
vie
nt:
E (t )
(YK (t ) RK (t )) RK (t ).(1 RK (t )) I Lj (t )
R
WKj (n)
Alors :
E T
WKjR (n)
R
WKj (n)
t 1
(YK (t ) RK (t )).RK (t )(1 RK (t ).I Lj (t )
T
WKjR (n 1) WKjR (n) (YK (t ) RK (t )).RK (t )(1 RK (t ).I Lj (t ) (I - 39)
t 1
1 T
E (YK (t ) FKR ( S KR (t )))2
2 t 1
D’
apr
èsl
esé
qua
tions(
I-26) et (I-27) nous savons que IJ dépend des poids de la couche
cachée, nous pouvons exploiter ce fait pour calculer le gradient de E.
E (t )
L (YK (t ) RK (t )) 2
W ji (n)
L
W ji (n)
M
RK .
S KR (t ) .
I JL (t ) .
(YK (t ) RK (t )) . (42)
K 1 S KR (t )
I Lj (t ) S Lj (t )
Le
sfa
cte
ursdel
’équa
tion(
I-42) peuvent être calculés à partir des équations
précédentes
(I-26), (I-27) pour donner :
E (t ) M
L
W ji (n) K 1
(YK (t ) RK (t )) . FK' R ( S KR (t )).WKjR .F j' L ( S Lj (t )). X i (t ) ( 43)
T M
W jiL (n) F jL ( S Lj (t )). X i (t ). (YK (t ) RK (t )).F 'RK ( S KR (t )).WKjR (n) (44)
t 1 K 1
D’
apr
èsl
’éq
uat
ion(
I- 40) :
T M
W jiL (n) F 'Lj ( S Lj (t )). X i (t ).KR (t ).WKjR (n) ( 45)
t 1 K 1
T
W jiL (n) KL (t ) X i (t )
t
1
Avec :
M
KL (t ) F 'Lj ( S Lj (t )).KR (t ).WKjR (46)
K 1
L’
équ
ati
ond’
ada
pta
tionde
spoi
dsda
nsc
eca
ses
t:
T
W jiL (n 1) W jiL (n) jL (t ). X i (t ) (47)
t
1
I.12 Les é
tape
sd’
algor
ithmeder
étr
opr
opagat
ion
L’
algor
it
hmeder
étr
opr
opa
gat
ione
str
epr
ése
ntéc
ommes
uit:
Etape 01 : Initialiser toutes les connexions par des valeurs aléatoires faibles.
Etape 02 : Présenter une entrée (X1, X2,…,Xn) et la sortie souhaitée
(Y1, Y2 ,…,Ym).
Etape 03 : Calculer :
1-Las
ommede
sent
rée
sde
sne
uron
esdel
acouc
hepa
rl’
équ
ati
on(I-26).
2-Le
sso
rti
esde
sne
urone
sdel
acouc
hec
ach
éepa
rl’
équa
tion(I-27)
r
3-La somme des entée
sdel
acouc
hedes
ort
iepa
rl’
équa
tio
n(I
-28).
4-Le
sso
rti
esder
ése
aup
arl
’éq
uat
ion(
I-29).
Etape 04 : Calculer :
1-Le
ste
rme
sdel
’er
reurpourl
esn
eur
one
sdel
acouc
hedes
ort
iepa
r
l'équation (I-40)
2-Le
ste
rme
sdel
’er
reurpourl
esn
eur
one
sdel
acouc
hec
aché
epa
r
l'équation (I-46)
Etape 05 : Ajuster :
spo
1-Le idsd
elac
ouc
hedes
ort
iepa
rl’
équa
tio
n(I
-39).
spo
2-Le idsd
elac
ouc
hec
aché
epa
rl’
équa
tion (I-47).
Etape 06 : Revenir à l'étape 03 jusqu'à la stabilisation du système [10].
I.12.1 Exe
mpl
ed’
appl
icat
ion
On choisi une fonction y(x) = sin(x) , et après plusieurs essais et choix
d’
architecture (nombre de couches, nombre de neurones dans chaque couche) avec un
pa
sd’
appr
entissage variable, on a pu obtenir l
’architecture suivante :
Quatre neurones dans la première couche.
Trois neurones dans la deuxième couche.
Deux neurones dans la troisième couche.
Eta
vecunpa
sd’
appr
ent
is
sage µ =0.01 et après quelqes itérations égalent à 2000
avec une erreur de 4.3 ×10-5 , voire la figure (I. 11).
Figure (I.11) l
’i
dent
if
icat
iondel
afo
nct
ions
in(
x)pa
rle
sré
seauxdene
uro
nes
Erreur
Itération
Figure (I.12) Re
pré
sent
ati
ondel
’er
reur
On trouve que l
’i
dent
if
ica
tiondel
afon
cti
ons
in(x) donne des résultats formidables.
I.13 Domai
nesd’
appl
icat
ionde
sré
seauxdene
uro
nes
I.13.1 Applications militaires
Bien que naturellement les publications soient relativement rares et que peu de
détails soient donnés, les applications militaires « classiques » se retrouvent en
r
eco
nna
iss
anc
edec
ibl
es,a
nal
ysed’
ima
ge,t
rai
teme
ntd
esi
gna
uxr
ada
rous
ona
r,e
t
da
nsunec
ert
aineme
sur
eenr
obo
tiqu
e.Lede
rni
erc
irc
uiti
nté
gréd’
lnt
el(
quie
stun
« accélérateur de reconnaissance », selon ses propres termes) a été financé pour moitié
sur crédits militaires, àha
ute
urd
’envi
ron 1,5 million de dollars. Ce circuit implante
une architecture de type RBF (mesure des distances entre stimulus et prototypes),
développée par la société Nestor.
sont s
ouve
ntut
il
is
ésc
onj
oint
eme
ntàd’
aut
rest
echni
que
scommel
esmodè
lesde
Markov cachés.
I.14 Conclusion
Les réseaux de neurones présentés dans ce chapitre sont des systèmes
paramétriques non linéaires qui relient des variables d'entrée à des variables de sortie.
u
Les paramètres sont déterminés statistiquement lors d’nepha
sed’
appr
ent
is
sageà
pa
rti
rd’
uneba
sededonné
esd’
exe
mpl
es,a
ppe
léeb
ased
’appr
ent
is
sage
.
En pr
ati
que
,l’
uti
li
sat
iond
ela mé
thode n
eur
ona
lep
osec
ert
aine
sdi
ff
icul
tés
.La
pr
inc
ipa
led
iff
icu
ltée
stl
’op
timi
sat
iond
elaph
ase d’
appr
ent
is
sage
.Le c
hoix de
l
’ar
chi
tec
tur
eadé
qua
teoul
adé
ter
min
ati
ondu« pa
sd’
appr
ent
is
sage» se fait par essais
successifs [10].