Академический Документы
Профессиональный Документы
Культура Документы
THESE
Prsente par :
SALEM Mohammed
DOCTORAT EN SCIENCES
Spcialit :Informatique et Automatique
Thme
Approches de lintelligence
artificielle pour la commande
robuste des systmes non
linaires
Devant les membres du jury :
Prsident :
Rapporteur :
Examinateur :
Examinateur :
Examinateur :
Examinateur :
Pr. B. YAGOUBI
Pr. M.F KHELFI
Pr. Y. LEBBAH
Pr. Z. AHMED FOITIH
Pr. A. LEHIRECHE
Dr. W. NOUIBAT
2014
thoe
who
emind
thoe
who
are
thoe
who
were
n
me
that
lighting
beside
my
me
and
my
o
and
they
little
my
power
way
through
anguish
...
the
my
when
my
in
felt
doubt
familly
parent
forsaken
and
frustration
still
elieving
confusion
Remerciements
Oh, Voyageur !, les traces de tes pas sont le chemin.
Il ny a pas de chemin, le chemin se fait en marchant.
Ces vers du pote Antonio Machado refltent le mieux laboutissement de cette thse qui ntait quune chimre
qui commenait se concrtiser au passage des annes.
En mettant les dernires retouches sur cet humble travail qui ne constitue quun pas dans un sentier parsem
dembches et dpines, je dois me rappeler des personnes qui ont particip de prs ou de loin pour que ce travail
voit le jour et qui mont soutenu et clair ma lanterne.
Cest avec un grand plaisir que je remercie mon directeur de thse, le Professeur Mohamed Fayal Khelfi.
Merci tout dabord de mavoir accept en thse et ensuite de mavoir encadr pendant toutes ces interminables
annes. Merci aussi pour votre patience, car il ntait pas toujours facile de diriger quelquun dopinitre.Jai
t extrmement sensible ses qualits humaines dcoute et de comprhension tout au long de ce travail.
Toute ma gratitude va au Professeur Belabbes Yagoubi Doyen de la Facult des Sciences Exactes et Appliques de lUniversit dOran pour mavoir fait lhonneur en acceptant de prsider le jury, je lavoue, il continue
de mtonner par sa disponibilit pour tre lcoute depuis que je lai eu comme enseignant.
Je remercie galement le Professeur Yahia Lebbah de lUniversit dOran et Dr Wahid Nouibat de lUSTO
pour lhonneur quils mont fait en acceptant de juger ce modeste travail.
Une mention spciale pour le Professeur Zoubir Ahmed-Fouatih de lUSTO pour ses qualits humaines et
scientifiques, je nai jamais dout quil accepte de juger ce travail.
Je remercie profondment le professeur Ahmed Lehireche de lUniversit de Sidi-Bel-Abbes, que la volont
de Dieu a fait quil tait lun de mes enseignants dans la graduation lUniversit de Sidi-Bel-Abbes, dans le
Magister et aujourdhui en tant lexaminateur de cette thse.
Je suis reconnaissant au Docteur Fatima Debbat de luniversit de Mascara, pour ses conseils toujours
aviss. Je suis par ailleurs toujours impressionn par sa disponibilit incroyable.. . .
Mes remerciements vont galement toute lquipe Geneura de lUniversidad de Granada et en particulier
le Professeur Juan Julian Merelo et Dr Antonio Mora pour le temps quils mont consacr au cours de mon
stage. Surtout, je remercie J.J de mavoir fait profiter de son immense culture et de sa hauteur de vue. Il ma
beaucoup appris surtout pour les tests statistiques.
Pour ne pas sombrer dans la nostalgie, je vais marrter l et prsenter toutes mes excuses aux personnes
que je nai pas mentionnes par leur nom dans ces quelques lignes. . .
Pour conclure, un grand merci ma femme qui a assur le soutien affectif de ce travail doctoral et qui y
croyais toujours mme lorsque jtais au fond du dsespoir. Je ne saurai jamais la remercier !
Rsum
La prsente thse est ddie l'application des techniques de l'intelligence computationnelle an de palier aux limites de la commande sliding mode des systmes non linaires.
En eet, les rseaux de neurones fonctions de bases radiales (RBF) sont utiliss pour
estimer les paramtres du modle dynamique et compenser les incertitudes.
Pour le dveloppement d'un algorithme d'apprentissage des rseaux de neurones
bases radiales (RBF), nous avons opt en premier lieu pour les algorithme volutionnaires en considrant l'apprentissage d'un rseau de neurones RBF comme un problme
d'optimisation.
Pour y parvenir, nous avons amlior deux algorithmes rcents, l'algorithme d'optimisation par colonie d'abeilles articielles (ABC) et l'algorithme de l'optimisation base
sur la biogographie (BBO) en les hybridant avec un modle prdateur et proies (P&P)
modi. Les deux algorithmes obtenus (PMBBO et ABC-PP) ont t valids par des tests
statistiques rvlant ABC-PP comme le meilleur algorithme.
Bien que l'application de l'algorithme ABC-PP pour l'apprentissage des paramtres
d'un pendule invers dans une commande sliding mode ait donn de bons rsultats, elle
n'a pas pu satisfaire le test de robustesse (Perturbations et incertitudes).
Le deuxime algorithme dvelopp est l'algorithme GAP-EKF qui est un algorithme
d'apprentissage en ligne bas sur une stratgie de Growing and Pruning (GAP) pour
contrler le nombre des neurones cachs (gal 0 au dbut) et un ltre de Kalman pour
modier les paramtres du rseau.
L'algorithme GAP-EKF est combin un contrleur ou dans une approche intelligente de commande slidng mode o GAP-EKF est utilis pour calculer la commande
quivalente tandis que la commande corrective est calcule par un contrleur ou.
L'approche propose a t applique pour la commande d'un pendule invers et ensuite
un robot manipulateur SCARA. Les rsultats obtenus sont trs satisfaisants mme en
prsence de perturbations et incertitudes.
Mots cls :
Intelligence computationnelle, Commande sliding mode, Rseaux RBF, Colonie d'abeilles
articielles, Optimisation base sur la biogographie, Commande PID, Prdateurs et
proies, Apprentissage, Optimisation, Contrleur ou.
Abstract
Sliding mode control is a robust control structure for nonlinear systems ; it has two
major drawbacks, the model dependency (mainly in presence of uncertainties and disturbances) and the chattering phenomena. Computational intelligence methods are often
used to solve these problems.
To gure out the problem of model dependency, Radial basis functions neural networks
(RBF) are used to estimate the model parameters but a performing training algorithm is
needed.
In this thesis, we will design rst, an evolutionary based training algorithm. To achieve
that, two optimization algorithms are enhanced ; Biogeography based optimization (BBO)
and Articial Bees Colony (ABC). The considered algorithms are combined with a modied predator and prey model (P&P) to increase their diversication. The obtained
algorithms (PMBBO and ABC-PP) are validated and compared through a statistical
tests set where ABC-PP was the best one.
ABC-PP is used to train RBF neural network to design RBF based sliding mode
controller to control an inverted pendulum giving good results but not in presence of
disturbances.
An online training algorithm (GAP-EKF) is then designed ; it is based on a growing
and pruning strategy to add or delete nodes and an extended Kalman lter (EKF) to
adjust neural network parameters (weights, centers and widths). The online algorithm
is integrated with fuzzy controller to design a Fuzzy-GAP-EKF sliding mode control
where GAP-EKF trained RBF is used to compute equivalent control and compensate
uncertainties while the fuzzy controller outputs the sliding gain value to cancel chattering.
The resulted approach is applied to control an inverted pendulum and SCRA robot
manipulator. The obtained results are remarkable even with external disturbances and
uncertainties.
Keywords :
Learning algorithm, Optimization, RBF Neural networks, Sliding mode control, PID
control, Biogeography based optimization, Articial bees colony, Predator and prey, Fuzzy
logic.
II
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Introduction gnrale
1
2
3
4
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Contexte et problmatique . . . . . . . . . . . . . . . . . . . . . . . . . . .
Objectifs et contributions . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Apprentissage des rseaux RBF par les algorithmes volutionnaires
3.2
Apprentissage en ligne des rseaux de neurones RBF . . . . . . . .
Structure de la thse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I
II
III
VIII
XI
XIII
1
1
2
3
4
5
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rseaux de neurones . . . . . . . . . . . . . . . . . . . . . . .
2.1
Neurone formel . . . . . . . . . . . . . . . . . . . . . .
2.2
Proprits des rseaux de neurones . . . . . . . . . . .
2.2.1
Apprentissage . . . . . . . . . . . . . . . . . .
2.2.2
Approximation parcimonieuse . . . . . . . . .
2.3
tapes de la conception d'un rseau de neurones . . . .
2.3.1
Choix et prparation des chantillons . . . . .
2.3.2
laboration de la structure du rseau . . . . .
2.3.3
Apprentissage du rseau . . . . . . . . . . . .
2.3.4
Validation et Test . . . . . . . . . . . . . . .
2.4
Rseaux de neurones fonctions de bases radiales . . .
2.4.1
Apprentissage des rseaux de neurones RBF .
2.4.2
Algorithmes d'apprentissage des rseaux RBF
Logique oue . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Gnralits sur la logique oue . . . . . . . . . . . . . .
3.1.1
Variables linguistiques et ensembles ous . . .
3.1.2
Sous-ensembles ous . . . . . . . . . . . . . .
3.1.3
Fonction d'appartenance . . . . . . . . . . . .
3.1.4
Base de rgles oues . . . . . . . . . . . . . .
3.2
Systme d'infrence oue . . . . . . . . . . . . . . . . .
3.2.1
Fuzzication . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
8
8
9
10
10
10
10
11
11
12
13
15
15
15
16
16
17
17
18
III
5
6
3.2.2
Infrence oue . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3
Dfuzzication . . . . . . . . . . . . . . . . . . . . . . . .
3.3
Contrleurs ous . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1
Mthode de Mamdani . . . . . . . . . . . . . . . . . . . .
3.3.2
Mthode de Takagi-Sugeno . . . . . . . . . . . . . . . . .
Optimisation et Algorithmes volutionnaires . . . . . . . . . . . . . . . . .
4.1
Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1
Dnition . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2
Problme d'optimisation . . . . . . . . . . . . . . . . . . .
4.2
Mthodes d'optimisation . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1
Mthodes exactes . . . . . . . . . . . . . . . . . . . . . . .
4.2.2
Mthodes approches . . . . . . . . . . . . . . . . . . . . .
4.2.3
Mthodes base de voisinage . . . . . . . . . . . . . . . .
4.2.4
Mthodes base de population . . . . . . . . . . . . . . .
4.2.5
Mthodes hybrides . . . . . . . . . . . . . . . . . . . . . .
Algorithmes volutionnaires . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1
Importance de la diversit . . . . . . . . . . . . . . . . . . . . . . .
5.2
Exploitation et exploration . . . . . . . . . . . . . . . . . . . . . . .
Commande des systmes non linaires . . . . . . . . . . . . . . . . . . . . .
6.1
Reprsentation des systmes non-linaires . . . . . . . . . . . . . .
6.2
Commande des systmes . . . . . . . . . . . . . . . . . . . . . . . .
6.2.1
Commande proportionnelle, intgrale et drive . . . . . .
6.2.2
Commande sliding mode . . . . . . . . . . . . . . . . . . .
6.2.3
Limites de la commande sliding mode . . . . . . . . . . .
Intelligence computationnelle dans la commande sliding mode . . . . . . .
7.1
Application des rseaux de neurones dans la commande sliding mode
7.1.1
Architectures parallles . . . . . . . . . . . . . . . . . . .
7.1.2
Rseaux de neurones pour l'adaptation des paramtres du
contrleur . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2
Application de la logique oue dans la commande sliding mode . . .
7.2.1
Approches indirectes . . . . . . . . . . . . . . . . . . . . .
7.2.2
Approches directes . . . . . . . . . . . . . . . . . . . . . .
7.3
Rglage des paramtres du contrleur sliding mode avec les algorithmes gntiques . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4
Synthse de l'utilisation des rseaux RBF pour la commande sliding
mode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
18
19
19
20
20
20
20
20
22
22
23
23
24
24
25
25
26
27
27
27
29
30
32
33
33
33
36
36
36
38
38
38
41
Introduction . . . . . . . . . . . . . . . . . . . .
Optimisation base sur la biogographie . . . .
2.1
Biogographie . . . . . . . . . . . . . . .
2.2
Optimisation et biogographie . . . . . .
2.2.1
Variable d'indice d'adquation .
2.2.2
Habitat . . . . . . . . . . . . .
2.2.3
Population . . . . . . . . . . .
2.2.4
Indice d'adquation de l'habitat
2.2.5
Taux d'immigration . . . . . .
IV
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
42
43
43
44
45
45
45
45
45
3
4
5
45
46
46
47
47
48
49
50
50
50
51
52
52
55
55
55
56
56
57
57
60
61
64
3
4
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . .
Optimisation par colonie d'abeilles articielles . . . . . . . .
2.1
Intelligence bio-inspire . . . . . . . . . . . . . . . . .
2.1.1
Auto-organisation . . . . . . . . . . . . . .
2.1.2
Division du travail . . . . . . . . . . . . . .
2.2
Modle de comportement d'abeilles . . . . . . . . . .
2.2.1
Sources de nourriture . . . . . . . . . . . . .
2.2.2
Abeilles employes . . . . . . . . . . . . . .
2.2.3
Abeilles non employes . . . . . . . . . . .
2.3
Algorithme colonie d'abeilles articielles . . . . . . .
2.4
tapes de l'algorithme ABC . . . . . . . . . . . . . .
2.4.1
Phase des employes . . . . . . . . . . . . .
2.4.2
Phase des onlookers . . . . . . . . . . . . .
2.4.3
Phase des scouts . . . . . . . . . . . . . . .
2.5
Discussion sur l'algorithme ABC . . . . . . . . . . .
2.5.1
Avantages de l'algorithme ABC . . . . . . .
2.5.2
Limites de l'algorithme ABC . . . . . . . .
Colonie d'abeilles articielles et prdateur et proies amlior
Analyse statistique des algorithmes PMBBO et ABC-PP . .
4.1
Paramtres de l'exprimentation . . . . . . . . . . . .
4.2
Conditions d'utilisation des tests paramtriques . . .
4.3
Tests non-paramtriques . . . . . . . . . . . . . . . .
V
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
65
66
66
67
68
68
68
68
69
70
70
71
71
72
72
72
72
73
74
75
77
79
5
6
4.3.1
Comparaisons par paires : Test de Wilcoxon signed ranks .
4.3.2
Comparaison multiple avec une mthode de contrle . . .
4.3.3
Procdures Post-hoc . . . . . . . . . . . . . . . . . . . . .
4.4
Estimation du contraste . . . . . . . . . . . . . . . . . . . . . . . .
Rglage d'un contrleur PID par l'approche ABC-PP . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
82
85
92
93
95
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Apprentissage des rseaux RBF par les algorithmes volutionnaires . . . .
2.1
Classication des approches d'apprentissage . . . . . . . . . . . . .
2.2
Travaux antrieurs . . . . . . . . . . . . . . . . . . . . . . . . . . .
Approximation des fonctions par les rseaux RBF . . . . . . . . . . . . . .
3.1
Approximation des fonctions . . . . . . . . . . . . . . . . . . . . . .
3.2
Approximation des fonctions par les rseaux RBF . . . . . . . . . .
Approche d'apprentissage des rseaux RBF par l'algorithme ABC-PP . . .
4.1
Analyse statistique de l'apprentissage des rseaux RBF par les algorithmes volutionnaires . . . . . . . . . . . . . . . . . . . . . . .
4.1.1
Test de Wilcoxon signed ranks . . . . . . . . . . . . . . .
4.1.2
Estimation du Contraste . . . . . . . . . . . . . . . . . . .
Commande sliding mode par l'approche RBF-ABC-PP . . . . . . . . . . .
5.1
Architecture propose . . . . . . . . . . . . . . . . . . . . . . . . .
5.2
Rsultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1
Apprentissage du rseau RBF . . . . . . . . . . . . . . . .
5.2.2
Application la commande sliding mode . . . . . . . . . .
5.2.3
Test de robustesse . . . . . . . . . . . . . . . . . . . . . .
Analyse, critiques et motivations pour le chapitre suivant . . . . . . . . . .
97
98
98
99
100
100
100
101
102
105
105
106
106
107
107
109
111
114
4
5
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Approche GAP-EKF pour l'apprentissage des rseaux de neurones RBF . .
2.1
Inuence d'un neurone . . . . . . . . . . . . . . . . . . . . . . . . .
2.2
Critre de croissance (Growing Criterion) . . . . . . . . . . . . . . .
2.3
Ajustement des paramtres du rseau par l'algorithme EKF . . . .
2.4
Critre d'lagage (Pruning Criterion) . . . . . . . . . . . . . . . . .
Approche GAP-EKF-Floue pour la commande sliding mode des systmes
non linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Commande quivalente RBF-GAP-EKF . . . . . . . . . . . . . . .
3.2
Commande Corrective oue . . . . . . . . . . . . . . . . . . . . . .
3.2.1
Entres du contrleur ou . . . . . . . . . . . . . . . . . .
3.2.2
Sortie du contrleur ou . . . . . . . . . . . . . . . . . . .
3.2.3
Systme d'infrence . . . . . . . . . . . . . . . . . . . . .
Rsultats des simulations . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1
Application au pendule invers . . . . . . . . . . . . . . . . . . . .
4.2
Application au robot manipulateur SCARA . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
VI
116
117
118
118
120
120
121
121
122
122
123
124
125
125
129
132
Bibliographie
Conclusion gnrale
135
Bibliographie
139
Annexes
151
152
1
2
3
VII
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
1.10
1.11
1.12
1.13
1.14
1.15
1.16
1.17
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12
2.13
2.14
2.15
2.16
2.17
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
12
13
15
17
18
22
24
26
29
29
31
33
34
35
35
36
44
46
49
50
51
54
54
57
58
58
59
59
59
60
61
61
63
67
67
67
68
69
69
70
74
75
91
91
91
94
94
95
102
107
107
108
109
110
110
4.10
4.11
4.12
4.13
4.14
4.15
111
111
112
112
113
113
113
5.1
5.2
5.3
5.4
5.5
5.6
5.7
5.8
5.9
5.10
5.11
5.12
5.13
5.14
5.15
119
121
123
123
124
125
127
127
127
128
128
128
129
131
131
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
3.10
3.11
3.12
3.13
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
(a) Fourmis . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(b) Abeilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(c) Oiseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Source de nourriture. . . . . . . . . . . . . . . . . . . . . . . . . .
Abeille employe exploitant une source de nourriture. . . . . . . .
Un onlooker tente d'amliorer une source de nourriture. . . . . . .
Danse frtillante des abeilles. . . . . . . . . . . . . . . . . . . . . .
AlgorithmeABC-PP . . . . . . . . . . . . . . . . . . . . . . . . . .
Procdure de l'analyse statistique . . . . . . . . . . . . . . . . . .
Rsultats des procdures post-hoc, Test de Friedman . . . . . . .
Rsultats des procdures post-hoc, Test de Friedman Aligned . . .
Rsultats des procdures post-hoc, Test de Quade . . . . . . . . .
Valeurs minimales de la fonction objectif obtenues par ABC-PP et
volution des gains PID obtenus par ABC-PP . . . . . . . . . . .
Erreurs angulaires obtenues par ABC-PP et les AG . . . . . . . .
IX
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
110
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
132
132
132
133
133
138
43
45
47
58
60
62
62
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
3.10
3.11
3.12
71
77
78
79
80
82
85
89
90
93
94
95
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4.1 Paramtres des algorithmes PMBBO, ABC et ABCPP pour l'apprentissage des rseaux RBF. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Paramtres des algorithmes Gntiques pour l'apprentissage hors ligne des
rseau RBF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Valeurs moyennes du critre J pour les 10 fonctions . . . . . . . . . . . . .
4.4 Rsultats du test Wilcoxon pour l'apprentissage des rseaux RBF . . . . .
4.5 Rsultats du test d'estimation du contraste pour l'apprentissage des rseaux
RBF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6 Paramtres des algorithmes ABC-PP et rtro-propagation . . . . . . . . .
63
63
104
104
104
105
106
108
XII
Facteur de chevauchement(GAP-EKF)
Taux de chasse
XIII
XIV
Introduction gnrale
1 Introduction
Les mthodes classiques de l'automatique ont t largement appliques de nombreux
problmes de rgulation industrielle. Cependant, la plupart des systmes physiques prsentent des non linarits et leurs paramtres sont souvent mal connus et/ou variables
dans le temps (Lewis et al., 1993).
Pour la commande de telles classes de systmes, les mthodes conventionnelles de
l'automatique ont montr leurs limites en termes de stabilisation et de performances.
Avec le dveloppement considrable des calculateurs numriques, les automaticiens ont
adopt de plus en plus de nouvelles approches telles que la commande prdictive et la
commande robuste (Slotine and Li, 1991).
Lorsque les systmes commands sont soumis des perturbations et des variations
de paramtres, la commande en mode glissant (Sliding Mode Control) apparat comme
une bonne solution permettant d'assurer la robustesse, la haute prcision, la bonne stabilit et la simplicit pour les systmes perturbs. Nanmoins, cette solution prsente
l'inconvnient de ncessiter une estimation du modle du systme en temps rel.
Les avances rcentes en informatique ont permis l'apparition d'outils intelligents
comme les rseaux de neurones et la logique oue. Ces outils sont regroups sous le
concept de l'intelligence computationnelle. Cette dernire est un domaine de l'informatique qui tudie les mcanismes d'adaptation qui permettent un comportement intelligent
dans des environnements changeants (Kusiak, 2000). Elle se concentre sur les modles
informatiques des systmes biologiques et d'intelligence naturelle, depuis l'intelligence des
essaims, les systmes ous, les rseaux de neurones articiels, les systmes immunitaires
articiels et la computation volutive. Elle fournit des algorithmes de paradigmes pour
rsoudre des problmes complexes du monde rel comme l'approximation des paramtres
des systmes non linaires (Engelbrecht, 2003).
2 Contexte et problmatique
Les rseaux de neurones en gnral et les rseaux fonctions de bases radiales (RBF)
en particulier, sont de puissants approximateurs de fonctions condition de trouver la
1
Introduction gnrale
bonne combinaison des paramtres et la bonne architecture. Ce rglage est ralis par les
algorithmes d'apprentissage (Haykin, 1999).
L'apprentissage des rseaux de neurones fonctions de bases radiales peut tre considr comme un problme d'optimisation o sa rsolution consiste trouver la ou les
meilleures solutions vriant un ensemble de contraintes et d'objectifs dnis par l'utilisateur. Il est ncessaire que le problme introduise un critre de comparaison pour dterminer si une solution est meilleure qu'une autre. Ainsi, la meilleure solution, appele
aussi solution optimale ou l'optimum, est la solution ayant obtenu la meilleure valuation
au regard du critre dni. Les problmes d'optimisation sont des problmes complexes
et donc ne possdent pas, ce jour, un algorithme gnral permettant de les rsoudre
en un temps polynomial. Ce problme de l'explosion combinatoire limite l'utilisation des
mthodes exactes la rsolution des problmes de petites tailles. Dans le cas contraire,
comme il est souvent le cas pour les applications relles, les mthodes approches et
en particulier, les mta-heuristiques sont devenues une alternative intressante (Mitchell,
1998).
Les algorithmes volutionnaires sont des mta-heuristiques d'inspiration biologique
bass sur la slection naturelle no-Darwinienne. Ils gnrent une population de solutions
candidates et tentent d'voluer en appliquant des oprateurs d'volution et la meilleure
solution est celle qui a la valeur optimale d'une fonction objectif. Ils sacrient souvent la
compltude pour gagner de l'ecacit. Parmi ces mta-heuristiques, nous pouvons citer
l'optimisation base sur la biogographie (BBO) et la colonie d'abeilles articielles (ABC).
Ces algorithmes procdent par l'exploration de plusieurs zones de l'espace de recherche
et l'exploitation des zones prometteuses en intensiant la recherche dans leurs voisinages.
Le problme de ces algorithmes est de trouver un compromis entre l'intensication des
recherches et la diversication (Paschos, 2005).
3 Objectifs et contributions
Pour remdier aux problmes de la commande sliding mode savoir, la ncessit
de connaitre priori les paramtres du modle, nous proposons d'utiliser les rseaux
de neurones fonctions de bases radiales comme approximateurs. Reste choisir un
algorithme d'apprentissage adquat et robuste d la nature dynamique et variante du
domaine d'application souhait.
Dans cette thse, nous avons uvr en deux axes parallles pour concevoir deux approches de commande sliding mode base des rseaux de neurones RBF, la premire
repose sur un algorithme d'apprentissage hors ligne par les algorithmes d'optimisation
volutionnaire, tandis que la deuxime utilise un algorithme d'apprentissage en ligne et
un contrleur ou.
2
Introduction gnrale
Introduction gnrale
Salem, M. and Khel, M. F. (2014b). Predator and prey modied biogeography based optimization approach (PMBBO) in tuning a PID controller for nonlinear systems. International
Journal of Intelligent Systems and Applications(IJISA), 6(11) :12-20.
E) Analyse statistique des algorithmes PMBBO et ABC-PP pour le problme d'optimisation des fonctions :
Pour choisir l'algorithme le plus adapt des deux, nous avons eectu une comparaison des algorithmes PMBBO et ABC-PP avec quatre algorithmes volutionnaires
rcents issus de la comptition CEC2013 (Congress on Evolutionary Computation).
La comparaison a t appuye par une une analyse statistique avec une panoplie de
tests paramtriques et non-paramtriques.
F) Commande sliding mode par les rseaux de neurones RBF : Aprs qu'une autre
comparaison a couronn l'algorithme ABC-PP comme tant le plus performant pour
le problme d'apprentissage des rseaux RBF pour l'approximation des fonctions
benchmark, il a t appliqu pour l'apprentissage d'un rseau de neurones RBF
pour estimer le modle du pendule invers dans la commande sliding mode. Cette
partie a fait l'objet d'une communication internationale :
Salem, M. and Khel, M. F. (2014c). An enhanced swarm intelligence based training algorithm
for RBF neural networks in function approximation. In The 2nd IEEE World Conference on
Complex Systems, 2014, Agadir, In press.
Introduction gnrale
selon le besoin. Nous avons choisi de modier seulement les paramtres du neurone
le plus proche.
H) Conception d'une approche de commande sliding mode base sur la combinaison en
parallle des rseaux de neurones RBF avec apprentissage par l'algorithme GAPEKF et d'un contrleur ou.
Ces rsultats ont t valids par les productions suivantes :
Salem, M. and Khel, M. F. (2011). rbf based sliding mode control for robot manipulators. In
International Conference on Communications, Computing and Control Applications (CCCA
2011), Hammamet, Tunisia.
Salem, M. and Khel, M. F. (2014b). Sequential adaptive RBF-fuzzy variable structure control
applied to robotics systems. International Journal of Intelligent Systems and Applications,
6(10) :19-29.
4 Structure de la thse
Ce mmoire est structur en cinq chapitres (cf. Figure 1) :
Le premier chapitre dresse un tat de l'art non exhaustif des techniques de l'intelligence
computationnelle : rseaux de neurones, logique oue et algorithmes d'optimisation. Deux
commandes des systmes non linaires sont prsentes : la commande Proportionnelleintgrale et drive (PID) et la commande robuste sliding mode. Ce chapitre est cltur
par une synthse des approches de la commande sliding mode avec les rseaux RBF.
Le deuxime chapitre commence par introduire l'algorithme d'optimisation biogographique (BBO), nous passons ensuite dtailler une proposition d'amlioration du modle
prdateur et proies pour l'utiliser pour hybrider l'algorithme BBO. Enn, une comparaison des performances de la nouvelle approche PMBBO avec les algorithmes gntiques
pour le rglage d'un contrleur PID est prsente.
Le troisime chapitre est consacr la mta-heuristique d'optimisation ABC et son
hybridation avec le modle prdateur et proies amlior (ABC-PP) suivie par une analyse
statistique comparant les deux algorithmes introduits par la prsente thse avec quelques
algorithmes volutionnaires connus.
Le quatrime chapitre explore l'utilisation de l'algorithme ABC-PP dans l'apprentissage hors ligne des rseaux de neurones RBF et introduit une commande sliding mode
base sur l'approche ABC-PP-RBF pour commander un pendule invers.
Le cinquime chapitre dcrit un nouvel algorithme d'apprentissage en ligne des rseaux
de neurones RBF et son fonctionnement. L'algorithme GAP-EKF est utilis en parallle
avec un contrleur ou pour concevoir une commande sliding mode d'un pendule invers
en premier lieu et ensuite le robot manipulateur SCARA.
5
Techniques de l'intelligence
computationnelle et ses applications dans la commande
Chapitre 1
Introduction gnrale
Chapitre 2
Optimisation biogographique base sur le modle
prdateur et proies amlior
Chapitre 3
Optimisation par colonie
d'abeilles articielles et prdateur et proies amlior
Chapitre 4
Apprentissage hors ligne des
rseaux de neurones RBF
par l'algorithme ABC-PP
Chapitre 5
Apprentissage en ligne des
rseaux de neurones RBF
par l'approche GAP-EKF
Figure
Chapitre 1
Techniques de l'intelligence
computationnelle et ses applications
dans la commande
1 Introduction
La majorit des systmes dynamiques utiliss dans la ralit sont des systmes non
linaires. Ce type de systme est gnralement sujet aux variations et incertitudes structurelles et non structurelles causes par l'environnement d'o le recours aux techniques
de l'intelligence computationnelle pour palier ce problme. Ces techniques sont connues
par leur adaptation aux changements environnementaux.
Dans ce chapitre, nous allons prsenter ces techniques (Rseaux de neurones, Logique
oue et algorithmes volutionnaires) et leurs applications dans la commande robuste (Sliding mode) des systmes non linaires.
La dernire section est consacre la prsentation d'une synthse des approches rcentes utilisant les rseaux RBF dans la commande sliding mode et leurs comparaison.
2 Rseaux de neurones
2.1 Neurone formel
Le neurone formel est un modle mathmatique simpli du neurone biologique. Il
prsente un certain nombre d'entres, un corps traitant ces entres et un axone vhiculant
la rponse du neurone. La premire modlisation d'un neurone dcoule des rsultats des
travaux signicatifs de Mac Culloch et Pitts (McCulloch and Pitts, 1943). La Figure 1.1
reprsente un modle de base de ce neurone.
Le modle de la Figure 1.1 est compos :
- Des entres xi , i = 0, 1, . . . , n ; l'entre spciale avec la valeur x0 = 1 est appele le biais
7
a1
a0
x2
a2
xn
an
Figure
n
X
!
ai x i
(1.1)
i=0
Une collection de neurones formels est appele rseaux de neurones. Ces rseaux sont
souvent constitus de couches de neurones inter-connects (McCulloch and Pitts, 1943)
et le type de connections, la nature de la fonction d'activation et d'autres paramtres dtermineront le type du rseau de neurones (Perceptron multicouches, Rseaux fonctions
de base radiales, Rseau de Kohonen, etc..).
Apprentissage supervis
Nous parlons d'apprentissage supervis quand le rseau est aliment avec la bonne
rponse pour les exemples d'entres donns. Le rseau a alors comme but d'approximer ces exemples aussi bien que possible et de dvelopper la fois la bonne
8
Apprentissage non-supervis
Dans le cas de l'apprentissage non-supervis le rseau dcide lui-mme quelles sont
les bonnes sorties. Cette dcision est guide par un but interne au rseau qui exprime
une conguration idale atteindre par rapport aux exemples introduits. Les cartes
auto organisatrices de Kohonen sont un exemple de ce type de rseau (Hagan et al.,
1995).
Apprentissage en ligne
Il consiste modier les valeurs des poids synaptiques immdiatement aprs la prsentation d'un exemple. Dans ce cas, seul le gradient instantan de la fonction cot
est utilis pour l'adaptation des paramtres du systme. Sous la condition que les
exemples soient prsents au rseau de neurones de manire alatoire, l'apprentissage en-ligne rend la recherche du minimum de la fonction cot stochastique en
nature, ce qui rend moins probable, pour l'algorithme d'apprentissage, de tomber
dans un minimum local
L'ecacit relative des modes d'apprentissage en-ligne et hors-ligne dpend essentiellement du problme considr. L'apprentissage en-ligne prsente cependant l'avantage que,
pour une seule prsentation de l'ensemble de la base de donnes, il implique de multiples
phases d'adaptations des poids synaptiques lorsque des donnes similaires se reprsentent,
ce qui se produit frquemment pour des bases de donnes trs tendues (Hagan et al.,
1995).
N
X
(1.2)
j=1
kxi j k2
j (x) = exp
2j2
(1.3)
1X
(ydi yi (xi ))2
J=
n i=1
(1.4)
Une caractristique intressante des modles RBF est que nous pouvons diviser les paramtres en trois groupes : les centres , les largeurs et les poids a.
L'interprtation de chaque groupe permet de proposer un algorithme d'apprentissage
simple et performant (Hagan et al., 1995).
x1
a1
x2
a2
aN
xN x
Figure
yk
12
Figure
Approche squentielle
Cette technique d'apprentissage propose ds la n des annes 1980 est trs couramment
utilise (Hagan et al., 1995). Elle consiste optimiser successivement les trois jeux de
paramtres (a, , ). Cette technique a l'avantage d'tre simple mettre en uvre, de
demander peu de calcul et de donner des rsultats acceptables. La solution obtenue n'est
cependant pas optimale.
Dans un premier temps, nous estimons les positions des centres et les largeurs
l'aide d'un algorithme de clustring de type k means. Une fois ces paramtres xs,
il est possible de calculer les poids optimaux a par une mthode de rgression linaire.
C'est certainement la simplicit et l'ecacit de cette mthode qui a fait le succs des
RBF (Moody and Darken, 1995).
En connaissant les centres et largeurs des fonctions gaussiennes, la sortie du rseau
donne en (1.2) devient :
y(x) =
N
X
akj j (kx j k , j ) =
j=0
N
X
aj hj (x).
(1.5)
j=0
Nous cherchons la solution a, le vecteur des poids minimisant la dirence entre la sortie
estime et la sortie dsire. Nous avons donc un systme d'quations linaires qui s'crit
sous la forme matricielle :
Y = H
a +
(1.6)
La matrice H , de dimension m N , donne les rponses des N centres RBF sur les m
exemples, Y est un vecteur regroupant les m sorties yi sur l'ensemble d'apprentissage, et
est le vecteur d'erreur. Le critre optimiser est :
E = T
13
(1.7)
(1.8)
(1.9)
o I est la matrice identit de dimension m. Le paramtre doit tre dtermin par validation croise ou, de manire plus sophistique, en employant des mthodes baysiennes
de r-estimation (Orr, 1995)).
aj ij )ij
j
di
j2
kj
j
(1.10)
3 Logique oue
3.1 Gnralits sur la logique oue
La logique oue (Fuzzy Logic) est une technique formalise en 1965 par Zadeh de
l'universit de Berkeley (Zadeh, 1965). Elle permet de traiter des variables logiques non
exactes dont la valeur peut varier entre 0 et 1. Elle se base sur la reprsentation et la
manipulation des connaissances imprcises, vagues et incertaines.
La logique oue associe un concept imprcis (concepts humains e.g. grand, chaud,...),
une fonction d'appartenance un ensemble. Gnralement, c'est une fonction numrique
continue qui exprime un point de vue subjectif d'une personne sur la variabilit du concept.
Il a t montr qu'une telle fonction est utile pour reprsenter l'inuence des modicateurs linguistiques, comme trs, plus ou moins , peu sur la signication des
concepts (Zadeh, 1965).
Figure
Petit
Moyen
50
Grand
Temprature
xa cx
,
), 0)
ba cb
(1.11)
cx
xa
, 1,
), 0)
ba
dx
(1.12)
(x )2
)
2 2
(1.13)
1
1 + exp(a(x c))
16
(1.14)
Figure
17
x1
x2
Fuzzication
Figure
Controleur ou
Mcanisme d'infrence
Defuzzication
3.2.1 Fuzzication
La fuzzication est la traduction des valeurs numriques relatives aux entres du systme en termes d'appartenances des sous ensembles ous pour pouvoir appliquer les
rgles. A une variable, nous associons les degrs d'appartenances correspondant chaque
sous ensemble ou (ce qui dpend bien sur de la description oue adopte) (Klir and
Yuan, 1995).
3.2.3 Dfuzzication
Elle a pour but l'obtention d'une valeur numrique pour chaque variable de sortie
partir des valeurs de sortie des direntes rgles. Parmi les nombreuses possibilits pour
raliser cette tape, nous pouvons citer (Rajasekaran and Pai, 2003) :
La mthode du centre de gravit :
C'est la mthode de dfuzzication la plus courante. L'abscisse du centre de gravit
de la fonction d'appartenance rsultant de l'infrence correspond la valeur de sortie
du rgulateur.
n
P
y0 =
(1.15)
i=1
n
P
i=1
18
Ui (yi )
l
X
yi
i=1
(1.16)
(1.17)
(1.18)
(1.19)
n
Y
Aj
(1.20)
j=1
y=
i y i
i=1
n
P
(1.21)
i
i=1
i reprsente ici le degr de vrit de chaque rgle. Les systmes d'infrence ou de
type Sugeno permettent une meilleure reprsentation des fonctions numriques et des
mcanismes d'infrence plus rapides (Takagi and Sugeno, 1985).
Il a t montr exprimentalement que, pour un objectif de commande de processus,
la mthode de Sugeno donnait des rsultats trs voisins de celle de Mamdani tout en
permettant une rduction sensible du temps de calcul (Klir and Yuan, 1995).
(1.22)
j (x) = 0, j = (1, . . . J)
k (x) 0, k = (1, . . . K)
x est un vecteur lments rels ou entiers de dimension n. Ses composantes xi sont
appeles variables de dcision, elles peuvent tre continues ou discrtes, dans ce dernier cas,
nous parlerons alors d'optimisation combinatoire. Les valeurs possibles des xi reprsentent
l'espace de recherche not S dans Rn .
La fonction fi (x) avec (i = 1, 2, . . . , M ) est appele la fonction cot, la fonction conomique ou la fonction objectif. Elle attribue chaque instance de l'espace de recherche
une valeur. Les ingalits j et k sont appeles les contraintes du problme, qui peuvent
tre linaires ou non linaires.
Pour un problme de minimisation, l'objectif est de rechercher les vecteurs qui minimisent la fonction f tout en respectant les contraintes reprsentes par les fonctions j
et k .
Si M = 1, le problme est un problme d'optimisation mono-objectif et si K = J = 0,
le problme tudi serait un problme d'optimisation sans contraintes. Dans ce type de
problmes, l'optimisation peut s'eectuer en tout point de l'espace de recherche.
Les problmes qui n'ont pas de critre d'optimisation, mais qui possdent un ensemble
de contraintes sont des problmes de satisfaction de contraintes.
L'ajout d'un critre un problme d'optimisation mono-objectif cre un problme
d'optimisation combinatoire avec contraintes. Ce dernier est trs important puisque la
majorit des problmes d'optimisation le sont.
Un problme d'optimisation se dnit alors comme la recherche de l'optimum d'une
fonction donne. Les variables de cette fonction sont souvent contraintes d'voluer dans
une certaine partie de l'espace de recherche (Mitchell, 1998). Cette fonction a des optima
locaux et globaux :
Le voisinage d'une solution x est un sous-ensemble de solutions appartenant S
(l'ensemble des solutions possibles) atteignable partir d'une transformation V (x).
Nous pouvons dire qu'une solution x0 est voisine d'une solution x, si x0 V (x).
L'application V est appele structure de voisinage.
Un point x est appel minimum global de la fonction f si :
x, x 6= x f (x ) < f (x)
Un point x est appel minimum local fort de la fonction f si (Paschos, 2005) :
x V (x ), x 6= x f (x ) < f (x)
21
Il est noter que pour les problmes de maximisation, il sut de multiplier la fonction
cot par (-1).
Minimum local
Minimum global
Figure
22
23
Mthodes
base de populations
Figure
Mthodes de voisinage
Mthodes hybrides
tion naturelle de Darwin, un exemple typique de ces algorithmes nous trouvons les
algorithmes gntiques.
Les algorithmes inspirs de l'thologie (l'tude du comportement des diverses espces
24
5 Algorithmes volutionnaires
Les algorithmes volutionnaires (Evolutionnary algorithms) sont des techniques d'optimisation stochastiques itratives, inspires de la thorie de l'volution naturelle de Darwin pour rsoudre des problmes divers, souvent d'optimisation. Ils simulent un processus
d'volution sur une population d'individus, dans le but de les faire voluer vers les optima
globaux du problme considr (Paschos, 2005).
Le fonctionnement d'un algorithme volutinnaire repose sur trois composants :
1- Une population constitue de plusieurs individus reprsentant des solutions candidates du problme d'optimisation.
2- Une fonction d'adaptation pour valuer la performance d'un individu (fonction
cot).
3- Un mcanisme d'volution de la population compos de plusieurs oprateurs de
modication et de slection permettant d'liminer certains individus et d'en crer de
nouveaux.
Le cycle d'volution d'un algorithme volutionnaire dbute avec une population initiale
gnre de faon alatoire puis rpte la procdure suivante (cf. Figure 1.9) :
1- Mesurer la qualit de chaque individu de la population par le mcanisme d'valuation,
2- Slectionner une partie des individus,
3- Produire de nouveaux individus par recombinaisons des individus slectionns (Mcanisme d'volution).
Ce processus se termine quand la condition d'arrt est vrie (Mitchell, 1998).
D'une manire gnrale, nous pouvons distinguer trois grandes classes d'algorithmes
volutionnaires : les algorithmes gntiques, la programmation volutive et les stratgies
d'volution. Ces mthodes se direncient par leur manire de reprsenter l'information
et par leur faon de faire voluer la population d'une gnration l'autre.
25
Fin
Oui
Arrt ?
Non
Slection
Evolution
Figure
x = f (x) + g(x)u(t)
y = h(x)
(1.23)
Si la consigne yd (t) est constante dans le temps, nous parlerons de rgulation sinon la
commande est un asservissement ou poursuite de trajectoires.
La commande d'un systme a pour objectif d'atteindre les performances suivantes :
1. Stabilit Nous disons d'un systme qu'il est stable si toute entre borne (en
amplitude) il rpond par une sortie borne (Slotine and Li, 1991).
2. Robustesse
Elle est sans doute le paramtre le plus important et le plus dlicat. Nous disons
qu'un systme est robuste si la rgulation fonctionne toujours mme si le modle
change un peu. Un rgulateur doit tre capable d'assurer sa tche mme avec ces
changements an de s'adapter des usages non prvus/tests (drive de production,
vieillissement mcanique, environnements extrmes) (Johnson and Moradi, 2005).
3. Rapidit
Elle dpend du temps de monte et du temps d'tablissement du rgime stationnaire.
Temps de rponse (Tr ) : Thoriquement, le temps de rponse est le temps
2005).
28
ymax y
.
ymax
(1.25)
we (t)
yd (t)
e(t)
Commande
u(t)
ws (t)
Systme
y(t)
P
n(t)
Figure
(1.26)
e(t)dt.
P
yd (t)
e(t)
Kp e(t)
I Ki e(t)dt
R
+
+ P u(t)
Systme
Figure
Kd e(t)
dt
y(t)
30
Commande
quivalente
e(t)
s = e + e
Figure
ue (t) +
u(t)
Systme
x(t)
+
uc (t)
Ksign(s)
(1.27)
Avec x(t) :le vecteur d'tat, f (x) et g(x) des fonctions non linaires dcrivant le systme
et d(t) reprsente les perturbations externes.
L'objectif est de trouver une loi de commande tel que, tant donn une trajectoire dsire
xd (t), l'erreur de poursuite e(t) tend vers zro malgr la prsence des perturbations.
L'erreur de poursuite est dnie par (Slotine and Li, 1991) :
e(t) = x(t) xd (t).
(1.28)
Slotine (Slotine and Li, 1991) a propos une forme gnrale qui consiste dnir une
fonction scalaire des surfaces de glissement dans le plan de phase dans le but d'assurer la
convergence d'une variable d'tat x(t) vers sa valeur de consigne xd (t). Cette fonction est
donne par l'quation :
s = e + e
(1.29)
o est un scalaire qui reprsente la pente de la surface de glissement.
Une fois la fonction de commutation tablie, le problme de la poursuite ncessite la
conception d'une loi de commande tel que le vecteur d'erreur e(t) reste sur la surface de
glissement s = 0 pour tout t 0 (Slotine and Li, 1991).
La loi de commande par mode glissant est alors dnit par l'addition de deux commandes, la commande quivalente ue (t) et la commande corrective uc (t) (quation (1.30)) :
u(t) = ue (t) + uc (t)
31
(1.30)
Commande quivalente La commande continue, dduite de s = 0, est appele commande quivalente ue . Son rle est de ramener le systme vers la surface de glissement,
elle est donne par la relation (1.31) (Slotine and Li, 1991) :
ue (t) =
1
[f (x) + xd (t) x(t) + x d (t) d(t)]
g(x)
(1.31)
(1.32)
Sachant que sign(.) est la fonction signe et K est une constante positive qui reprsente le
gain de la commande discontinue. Il est choisi assez grand pour compenser les perturbations d(t).
de bonnes performances de la commande. En eet, la partie quivalente de la commande sliding mode a pour rle de ramener le systme vers la surface, cette partie
est constitue essentiellement des fonctions non linaires du modle f (x) et g(x) (cf.
quation (1.31)).
Si le systme prsente des incertitudes ou des variations dans les paramtres, les
performances de la commande quivalente se trouveront diminues (Slotine and Li,
1991).
L'utilisation du terme sign(.) dans le signal de commutation avec de grandes valeurs
du gain K (quation (1.32)) provoque le phnomne de chattering qui peut exciter
32
Plusieurs auteurs ont essay de fusionner les techniques de l'intelligence computationnelle et la commande sliding mode an d'attnuer les problmes rencontrs dans
les implmentations pratiques de la commande.
Trois techniques principales de l'intelligence computationnelle ont t combines
avec la commande sliding mode : les rseaux de neurones, la logique oue et les
algorithmes volutionnaires en particulier les algorithmes gntiques.
e
e
s
Figure
Rseau 1
ue (t)
+
P u(t)
+
P e(t)
Rseau 2
uc (t)
Robot
y(t)
Adaptation
Figure
mode :
L'utilisation d'un rseau de neurones pour le calcul du terme de la commande quivalente d'un contrleur sliding mode est galement propose par (Jezernik et al.,
1997). Dans leur approche, reprsente sur la Figure 1.15, un dispositif de commande sliding mode inspir de (Sabanovic et al., 1996) est utilis en parallle avec
un rseau de neurones pour obtenir une commande robuste. Les entres du rseau
sont slectionnes comme le sinus des positions angulaires dsires, les vitesses dsires, les erreurs en position, et les erreurs en vitesse.
Un algorithme d'apprentissage de type gradient est propos pour adapter les poids
du rseau pour minimiser la fonction cot : J = 12 (Ks + s)
2.
34
xd (t)
s + s
+P
Reseau
u(t)
x(t)
Robot
+
+P
e(t)
Feedback
Figure
Sliding
+ + u(t)
+
Systeme
xd (t)
m-1
Rseau NN
x(t)
1-m
e(t)
Figure
Rseau NN
35
x(t)
Figure
e(t)
Rseau Rccurent
Sliding mode
u(t)
Robot
x(t)
36
mode :
Les eets des paramtres de conception sur les performances du systme sont trs
clairs. Par exemple, le paramtre dtermine la pente de la surface de glissement
et, par consquent, plus il est grand, plus rapide sera la rponse du systme , mais
une trop grande valeur de ce paramtre peut entraner l'instabilit.
(Erbatur et al., 1996) ont suivi une telle approche pour le contrle de trajectoire d'un
robot manipulateur. Les entres du contrleur oue utilis sont la valeur absolue de
l'erreur de position, la valeur absolue de la surface de glissement s, et une variable
dnie comme la variation cumulative du chattering. Le systme d'adaptation oue
dlivre les valeurs de et le gain K .
Dans (Choi and Kim, 1997) un contrleur sliding mode oue temps discret est mis
en uvre pour le contrle des vibrations avec un actionneur lm pizolectrique.
(B) Logique oue pour la modlisation des incertitudes :
Un certain nombre de chercheurs ont propos d'utiliser la logique oue dans ce
contexte.
Par exemple, dans (Chen and Chen, 1998), une architecture oue est utilise de
faon adaptative pour modliser les non-linarits des systmes qui ont des incertitudes inconnues.
Dans le schma propos, la limite de l'erreur de modlisation qui rsulte de l'erreur
entre le systme ou et le systme non linaire rel (pendule invers) est identie
d'une manire adaptative. En utilisant cette borne, un signal de commande sliding
mode est calcul. L'approche propose dans (Yu et al., 1998) est similaire.
L'utilisation des approximateurs ous (Wang, 1994) dans la modlisation des incertitudes est galement connue dans la littrature. Par exemple, dans (Yoo and
Ham, 1998), deux contrleurs adaptatifs sliding modes avec deux systmes ous
(approximateurs)sont conus.
(C) Complmentarit entre un contrleur ou et un contrleur sliding mode :
Certaines approches observes dans la littrature comprennent des systmes ous
comme contrleurs complmentaires aux contrleurs sliding mode. Tout d'abord, la
commande sliding mode est conue, ensuite, un contrleur ou supplmentaire est
utilis pour amliorer les performances et liminer le chattering.
Dans (Ha, 1996), un tel rgime est prsent pour les systmes linariss sourant
d'incertitudes, un contrleur sliding mode combin avec un contrleur ou est utilis
pour compenser l'inuence de la dynamique non modlise et le chattering.
L'approche dans (Ha, 1996) est gnralise une classe de systmes non-linaire
dans (Ha, 1997) o les simulations sur un robot manipulateur sont prsentes.
37
essor dans les trois dernires annes surtout pour la commande des nouveaux systmes (olienne, robots bipdes, navires, plateforme de forage).
La majorit des auteurs ont choisi d'appliquer les RBF pour calculer la commande
39
Adaptive neural network sliding mode control based on particle swarm optimization for rotary steering drilling stabilized
platform, (Zhang et al., 2012)
Terminal Sliding Mode Control for STT Missile Based on RBF
Neural Network, (Shi et al., 2012)
RBF neural network sliding mode control for variable-speed
adjustable-pitch system of wind turbine, (Jiao and Wang,
40
A RBF neural network sliding mode controller for sma actuator, (Tai and Ahn, 2010)
A new rbf network based sliding-mode control of nonlinear
systems, (Beyhan and Alci, 2009)
Internal model control of pm synchronous motor based on rbf
network optimized by genetic algorithm, (Li et al., 2007)
Adaptive neural network based fuzzy sliding mode control of
robot manipulator, (Ak and Cansever, 2006a)
2010)
Lgende :
15
14
13
12
11
10
et al., 2014)
Approche
oue
Contribution
(B)
(A)
N
1
Table
(C)
(D)
(E)
(F)
(G)
(H)
8 Conclusion
Dans ce chapitre, nous avons prsent un tat de l'art sur les techniques de l'intelligence
computationnelle en particulier les rseaux de neurones RBF, logique oue et algorithmes
volutionnaires. Nous avons aussi prsent le principe de la commande PID et la commande sliding mode. Cette commande soure de quelques limites que les chercheurs ont
essay de rsoudre par les techniques intelligentes. La dernire section de ce chapitre a t
consacre aux direntes architectures et applications de ces techniques. Une attention
particulire a t prte aux rseaux RBF dans la commande sliding mode des systmes
non linaires o une synthse a t prsente en comparant quelques approches rcentes.
Parmi les solutions aux problmes de la commande sliding mode, la prsente thse se
concentre sur une solution base de rseaux de neurones RBF. Les performances de cette
solution sont conditionnes par l'ecacit de l'algorithme d'apprentissage.
Les chapitre 2 et 3 prsentent une amlioration de deux algorithmes volutionnaires
pour les utiliser ensuite pour l'apprentissage des rseaux de neurones RBF dans le chapitre
4. Le dernier chapitre dtaillera un algorithme d'apprentissage en ligne et son utilisation
dans une architecture base de rseaux RBF et logique oue pour la commande sliding
mode.
Cette numration des chapitres sort de l'ordinaire, mais elle est faite dans le souci
de montrer l'interaction du premier chapitre avec l'ensemble des autres chapitres (cf.
Figure 1).
41
Chapitre 2
Optimisation biogographique base sur
le modle prdateur et proies amlior
1 Introduction
L'optimisation est l'une des branches les plus importantes des mathmatiques appliques, elle a t le sujet de nombreuses recherches la fois pratiques et thoriques. La
rsolution d'un problme d'optimisation consiste explorer un espace de recherche an
de minimiser (maximiser ) une fonction donne.
Parmi ces problmes les plus connus dans le domaine de l'automatique, nous citons
le problme de trouver la combinaison optimale des gains d'un contrleur PID. Pour
rsoudre ce problme et palier la limite de la commande PID (Les gains sont ajusts
empiriquement), divers algorithmes inspirs de la nature ont t appliqus.
Depuis les algorithmes gntiques (AG) et Particules d'essaims (PSO) en passant par
les colonies de fourmis (ACO), Dierential Evolution (DE) jusqu'aux algorithmes dvelopps rcemment, comme les colonies d'abeilles articielles (ABC) et l'optimisation par
la biogographie (BBO). Une tude comparative de quelques approches mta-heuristiques
pour le problme de l'optimisation du PID est donne dans (Nagaraj and Vijayakumar,
2011).
Nous avons essayer de dresser un rsum des rcentes approches naturelles d'optimisation pour le rglage du contrleur PID. La Table 2.1 reprsente pour chaque algorithme,
le systme utilis ainsi que l'algorithme compar. La plupart des approche sont compares
aux algorithmes gntiques et avec la mthode conventionnelle Ziegler Nichols.
L'optimisation base sur la biogographie (BBO) est parmi les algorithmes d'optimisation les plus rcents (Simon, 2008). Il est bas sur le mouvement des espces entre les
cosystmes la recherche d'endroits habitables.
Ce chapitre est consacr la prsentation d'un algorithme hybride entre l'algorithme
BBO et le modle prdateur et proies qui est un algorithme d'optimisation de voisinage.
L'objectif de cette hybridation est d'accrotre l'eet de la diversication reprsent dans
42
Algo
AG
Approche
(Kim, 2008)
(Yin et al., 2004)
(Zain et al., 2009)
DE
(Ruijun, 2009)
(Youxin and Xiaoyi, 2010)
ACO (Soundarrajan et al., 2010)
(Berbaoui et al., 2011)
PSO (GirirajKumar et al., 2010)
(Solihin et al., 2011)
(Lahoty and Parmar, 2013)
ABC
(Gozde et al., 2010)
(Sundareswaran, 2008).
BBO (Salem and Khel, 2012)
Systme
Systme d'osmose invers
Systme sous-amorti
Bras manipulateur exible
Systme de premier ordre
Servo-moteur
Moteur courant continu
Filtre actif
Perceuse
Moteur DC
Systme FOPDT
AVR
Moteur courant continu
Pendule invers
Comparaison
Ziegler-Nichols
PSO
Ziegler Nichol
Ziegler Nichol
Ziegler Nichol, AG
AG
AG
2.1 Biogographie
La Biogographie est l'tude de la distribution de la biodiversit dans l'espace et dans
le temps, ce qui permet aux nombreuses espces animales de migrer vers dirents habitats
ou les pour leur survie et une meilleure vie. La biogographie a t tudie ds le 19me
sicle par Alfred Wallace et Charles Darwin (Macarthur and Wilson, 1967).
Dans le dbut des annes 60, (Macarthur and Wilson, 1967) ont dvelopp les modles
mathmatiques de la biogographie, ce qui lui permet de prosprer comme un important
domaine de recherche.
43
Figure
La Biogographie
Algorithme BBO
Habitat ou le
Solution du problme
HSI
Qualit de la solution (fonction cot)
SIV
Les Variable du problme d'optimisation
2.2.2 Habitat
Un habitat H est une solution du problme reprsente gnralement par un vecteur
initialis alatoirement par des variable d'indice d'adquation. Il est not (Simon, 2008) :
H = [SIV1 , SIV2 , . . . , SIVK ]
(2.1)
2.2.3 Population
Une population est un ensemble de n habitats (Simon, 2008).
P op = [H1 , H2 , . . . , Hn ]
(2.2)
(2.3)
45
Critre d'arrt ?
Oui
Solution optimale
Non
Slection
Migration
Mutation
valuer la HSI
Gnration i + 1
Figure
2.3.1 Initialisation
Dans cette tape, nous dnissons les paramtres de contrle (cf. Table 2.3) et nous
gnrons alatoirement une population initiale de n habitats. La taille de cette population
reste constante tout le long de l'algorithme (Simon, 2008).
46
Paramtre
n
gmax
I
E
mmax
smax
Notation
La taille de la population
Le nombre de gnrations
Le taux maximum possible d'immigration
Le taux maximum possible d'migration
Le taux maximum de la mutation
Le nombre maximum des espces dans l'habitat.
2.3.3 Slection
Pour appliquer les oprateurs de l'algorithme BBO comme n'importe quel autre algorithme volutionnaire, nous devons slectionner les habitats ou individus candidats cet
oprateur.
La slection est fonde sur la qualit des habitats, estime l'aide de fonction d'adaptation. Il existe plusieurs mthodes de slection (Mitchell, 1998).
La population est reprsente comme une roue de roulette, o chaque habitat est reprsent par une portion qui correspond proportionnellement son valeur de HSI (tness).
La slection d'un individu se fait en tournant la roue. L'un des inconvnients de ce type
de slection est de choisir presque toujours le mme habitat s'il en existe un bien meilleur
que tous les autres, ce qui cause une perte de diversit dans la population (Miller and
Goldberg, 1995).
La slection par rang trie d'abord la population par HSI. Ensuite, chaque habitat se
voit associ un rang en fonction de son position. Ainsi le plus mauvais habitat aura le
rang 1, le suivant 2, et ainsi de suite jusqu'au meilleur habitat qui aura le rang n. La
slection par rang d'un habitat est la mme que par roulette, mais les proportions sont
en relation avec le rang plutt qu'avec la valeur de l'valuation. Avec cette mthode de
slection, tous les habitats ont une chance d'tre slectionns. Cependant, elle conduit
une convergence plus lente vers la bonne solution. Ceci est d au fait que les meilleurs
habitats ne dirent pas normment des plus mauvais (Miller and Goldberg, 1995).
litisme
(2.4)
L'quation (2.4) reprsente comment une caractristique ou SIV d'une solution Hi est
remplace par une caractristique ou SIV d'une solution Hj par l'opration de migration.
Dans la BBO, chaque solution Hi a son propre taux d'immigration i et taux d'migration i . Ces deux taux sont calculs par l'quation (2.5) et l'quation (2.6) respectivement.
i = I(1
ki
)
n
ki
i = E( )
n
(2.5)
(2.6)
vement.
48
E=I
Taux
S1 Espces S2
Figure
Smax
Pig
)
Pmax
(2.7)
o :
mi : Le taux de mutation pour l'habitat i.
mmax : Le taux maximum de mutation.
Pmax : La probabilit maximale d'existence.
Avant d'appliquer l'oprateur de la mutation, nous devons calculer Pig , la probabilit
d'existence de l'habitat i dans la gnration actuelle g . Ce paramtre est calcul partir
de sa valeur dans la gnration prcdente par l'quation (2.8).
Pig = Pig1 + Pig
49
(2.8)
P i =
(i + i )Pi + i1 Pi1
i=n
(2.9)
Figure
g
gmax
(2.10)
o est une constante de taux de chasse, g est la gnrations courante et gmax est
le nombre maximum des gnrations.
2. Faire fuir les proies de la position du prdateur (dplacer les proies). Les nouvelles
positions sont donnes par :
(
xig+1 =
(2.11)
Predateur
(Mauvaise solution)
Anciennes positions des proies
kj
kj
)Hj (SIVc ) + (1
)Hi (SIVc ) , c = 1..nsiv .
ki + kj
ki + kj
(2.12)
kj
n kj
)Hj (SIVc ) + ( )Hi (SIVc )
n
n
(2.13)
g
gmax
!
i = 1..nbpred .
(2.14)
Si nous tudions de prs le dplacement classique des proies dans le modle prdateur et proies, il est clair qu'il a le mme eet que l'oprateur de migration de la
BBO (partager des informations entre solutions). Pour permettre aux solutions du
voisinage d'explorer d'autres parties de l'espace de recherche, une modication de
la formule de dplacement (2.13)) s'impose.
Considrons une solution prdateur, l'ide est d'au lieu d'eectuer un petit dplacement des proies, nous allons crer alatoirement de nouvelles solutions partir des
solutions avoisinantes du prdateur.
Les nouvelles solutions seront cres par l'quation (2.15) en introduisant une variable
alatoire (Salem and Khel, 2014b).
Hig+1 = Hig + e|dm | (Himax Himin ) ig
/ [1..nbpred ].
(2.15)
o dm est la distance entre la proie Hig et le prdateur le plus proche donne par
l'quation (2.16).
nbpred
(2.16)
Himin et Himax sont les bornes minimale et maximale possibles pour les variables de
dcision de l'habitat H , est une valeur alatoire entre 1 et 1 (Salem and Khel,
2014c).
Taux de chasse variable :
53
1
g
(2.17)
Predateurs
(Meuileures solutions)
Anciennes positions des proies
54
(2.18)
e(t)dt
(2.19)
|e(t)|dt
(2.20)
ISE =
0
Z
IAE =
0
te(t)dt
0
55
(2.21)
t|e(t)|dt
IT AE =
(2.22)
Pour tous les critres, la meilleure rponse correspond la valeur minimale du critre
choisi.
Dans tous ces cas, soit l'erreur absolue ou l'erreur quadratique sont utiliss parce que
l'intgration simple peut conduire un rsultat nul erron dans le cas o le systme a une
amplitude constante oscillatoire (Mitchell, 1998).
La fonction IAE est souvent utilise dans le cas discret, mais elle est inapplicable pour
le cas continu parce que la valeur absolue d'une fonction d'erreur gnralement n'a pas
une forme analytique. Ce problme est surmont par le critre ISE (Mitchell, 1998).
Les fonctions ITAE et ITSE ont un oprateur de temps supplmentaire multipli par la
fonction de l'erreur, ce qui met l'accent sur les erreurs de longue dure, et par consquent,
ces critres sont le plus souvent appliqus dans le cas des systmes ncessitant un temps
de rponse rapide (Lahoty and Parmar, 2013).
(2.23)
56
e(t)
PID
u(t)
Systme
y(t)
Figure
6 Rsultats de simulation
Pour valuer l'algorithme propos, nous allons l'appliquer pour ajuster les paramtres
d'un contrleur PID pour commander deux systmes non linaires dcrits dans l'annexe :
Le systme masse-essort-Amortisseur et le pendule invers.
L'valuation sera eectue par le biais de la fonction objectif ISE donne en quation (2.19). Par la suite, nous prsenterons une comparaison des performances de PMBBO
avec les algorithmes BBO, AG et MBBO (BBO avec l'oprateur de migration modi donne en quation (2.13)) en utilisant la fonction HSI fg de l'quation (2.23).
Valeur
20
50
1
[0..50]
4
HSI
ISE
11
HSI 1
10.5
10
9.5
9
10
15
20
25
30
35
40
45
50
Gnrations
Figure
2.9: volution des meilleures HSI par PMBBO Masse ressort amortisseur.
18
Mauvaises solutions
Meilleures solutions
HSI
16
14
12
10
8
10
15
20
25
30
35
40
45
50
Gnrations
Figure
2.10: volution des mauvaises HSI par PMBBO, Masse ressort amortisseur.
58
Gains
40
Kp
Ki
Kd
20
0
20
10
15
20
25
30
35
40
45
50
Gnrations
positions (m)
Figure
2.11: volution des gains du PID par PMBBO, Masse ressort amortisseur.
Position relle
Position dsire
0.5
10
Temps(s)
Figure
0.5
0
0
Temps(s)
Figure
10
Valeur
20
50
1
[0..50]
6
HSI
ISE
Min HSI
0.65
0.65
0.64
0.64
0
10
15
20
25
30
35
40
45
50
Gnrations
Figure
60
Figure
2.15: volution des gains du PID pour la PMBBO avec un pendule invers.
0
0.1
0.2
0.3
0
10
Temps (s)
Figure
Paramtre
20
20
20
104
104
104
3
0.1
1
/
3
0.1
1
/
3
/
1
6
fg
fg
fg
Paramtre
Valeur
Chromosomes
20
Nombre des valuations
104
Gnes
3
Taux de croisement
0.6
Type de croisement
Deux points
Taux de mutation
0.01
Type de mutation
bit ip
Fitness
fg
62
Table
Excution
AG
BBO
MBBO PMBBO
1
2
3
4
5
6
7
8
9
10
4.6e-03
4.7e-03
4.7e-03
4.7e-03
4.6e-03
4.6e-03
4.7e-03
4.6e-03
4.7e-03
4.8e-03
4.5e-03
4.5e-03
4.3e-03
4.2e-03
4.2e-03
4.3e-03
4.3e-03
4.3e-03
4.3e-03
4.2e-03
4.5e-03
4.6e-03
4.2e-03
4.2e-03
4.4e-03
4.3e-03
4.2e-03
4.3e-03
4.2e-03
4.2e-03
4.2e-03
4.2e-03
4.1e-03
4.1e-03
4.1e-03
4.1e-03
4.0e-03
4.1e-03
4.1e-03
4.1e-03
0.05
0
0.05
0.1
0.04
GA
0.02
BBO
0.15
PMBBO
0.2
0.02
0.25
0.04
0.3
0.35
0
Figure
Table
0.2
0.4
0.6
0.8
5
Temps (s)
Excution
1
2
3
4
5
6
7
8
9
10
PMBBO
AG
Min HSI
Tm (s)
Tr (s)
Omax
Min tness
Tm (s)
Tr (s)
Omax
0.579
0.579
0.577
0.577
0.575
0.581
0.579
0.581
0.580
0.568
0.061
0.064
0.064
0.064
0.064
0.065
0.064
0.064
0.066
0.065
0.160
0.175
0.194
0.172
0.178
0.208
0.180
0.191
0.197
0.178
0.012
0.012
0.014
0.011
0.012
0.015
0.012
0.014
0.014
0.012
0.619
0.592
0.672
0.646
0.670
0.632
0.640
0.602
0.634
0.606
0.056
0.058
0.059
0.056
0.055
0.077
0.068
0.061
0.058
0.060
3.465
0.158
1.783
0.175
1.730
2.301
4.117
0.167
4.360
0.164
0.014
0.014
0.018
0.020
0.020
0.008
0.014
0.013
0.011
0.013
63
10
7 Conclusion
Dans ce chapitre, nous avons prsent un algorithme hybride (PMBBO) entre l'optimisation par la biogographie (BBO) et le modle prdateur et proies.
Des modications ont t apportes, d'une part, l'oprateur de migration du BBO
pour prserver les solutions d'tre dtriores et d'autre part, au modle prdateur et
proie pour l'adapter l'hybridation. En eet, le modle prdateur et proies amlior
dire largement du modle original o un ensemble de prdateurs est considr pour
accroitre la diversication de l'algorithme hybride et acclrer le processus de trouver la
solution optimale en gnrant des habitats alatoires.
L'algorithme obtenu a t utilis pour l'optimisation des gains d'un contrleur PID
avec deux systmes non linaires, le systme masse-ressort-amortisseur et le pendule invers.
Une comparaison de l'algorithme PMBBO a t ralise avec l'algorithme BBO classique et les algorithmes gntiques.
Bien que les rsultats de cette comparaison aient conrm l'amlioration des performances d'optimisation de l'algorithme propos, nanmoins, cette conclusion reste valider
statistiquement cause du petit nombre d'chantillons utiliss (moins de 30) (Garcia et al.,
2010).
Les rsultats obtenus arant aux travaux raliss ont t valids par des instances
scientiques internationales, en l'occurrence :
ICCS12 pour l'application de l'algorithme de l'optimisation base sur la biogographie pour optimiser un contrleur PID.
64
Chapitre 3
Optimisation par colonie d'abeilles
articielles et prdateur et proies
amlior
1 Introduction
L'tude des phnomnes rels est une nouvelle source d'inspiration en ingnierie d'informatique, o l'tude et la modlisation des systmes complexes sont trs prsentes.
Parmi les domaines fertiles de la biologie en inspiration, l'thologie (tude du comportement des animaux) a rcemment donn lieu plusieurs avances signicatives, dans
la conception des systmes articiels. Ces systmes sont notamment tudis en robotique, en classication ou encore en optimisation. Les mta-heuristiques constituent une
famille d'algorithmes inspirs de la nature. Ces algorithmes sont particulirement utiles
pour rsoudre des problmes o les algorithmes d'optimisation classiques sont incapables
de produire des rsultats satisfaisants. L'algorithme d'optimisation par colonie d'abeilles
articielles (ABC) est une de ces mthodes.
L'algorithme ABC repose sur le principe de la division du travail chez les abeilles o
trois phases sont identies, la phase des abeilles employs, la phase des abeilles onlookers
et la phase des scouts. Cette dernire est excute chaque i cycles pour sortir des minima
locaux et diversier les solutions.
Le fait que le processus de diversication ne s'excute que chaque i cycles conduit l'algorithme a rester entre temps dans des minima locaux. Ce problme a motiv l'hybridation
de l'algorithme ABC avec le modle prdateur et proies amlior.
Dans ce chapitre nous prsentons en dtail l'algorithme colonie d'abeilles articielles
ABC ainsi que le nouvel algorithme hybride ABC-PP qui est analys et compar avec un
ensemble d'algorithmes d'optimisation en appliquant des tests statistique non-paramtriques
pour dceler les dirences entre ABC-PP et ces algorithmes. Enn, l'algorithme ABC-PP
65
66
(a) Fourmis
(b) Abeilles
(c) Oiseaux
Figure
2.1.1 Auto-organisation
Elle peut tre dnie comme un ensemble de mcanismes dynamiques qui tablissent
les rgles de base concernant l'interaction entre les composants du systme. Les rgles
font en sorte que les interactions sont excutes sur la base des informations purement
locales sans aucun rapport avec le schma global. Les quatre proprits fondamentales sur
lesquelles repose l'auto-organisation des abeilles dans la ruche sont (Seeley, 1995) :
Rtroaction positive
Comme la quantit de nectar des sources de nourriture augmente, le nombre de leurs
visites par les abeilles augmente aussi.
Rtroaction ngative
Le processus d'exploitation des sources de nourriture pauvres est arrt par les
abeilles.
Fluctuations
Les scouts mnent un processus de recherche alatoire pour dcouvrir de nouvelles
sources de nourriture.
Interactions multiples
Les abeilles partagent leurs informations sur les sources de nourriture avec les onlookers sur la piste de danse.
67
Figure
68
Figure
Figure
69
Figure
(3.1)
1
fi +1
fi 0
1 + |fi | sinon
(3.2)
O fi est la fonction objectif value pour la solution i, f iti est la fonction tness.
L'algorithme ABC ritre trois phases jusqu' atteindre une qualit de solution o un
nombre maximum de cycles cmax souhaits. Ces phases sont la phase d'abeilles employes,
onlookers, et les scouts (Karaboga et al., 2007).
70
Paramtre
cmax
N
Ne
No
Ns
Dim
Limit
T
Dsignation
Nombre maximal de cycles
Taille de la colonie
Nombre des abeilles employes
Nombre des onlookers
Nombre des scouts
Nombre de variables de dcision
Nombre de tentative d'amlioration d'une solution
Compteur de tentative d'amlioration d'une solution
Nature
Ct
C t (N est pair)
N e = N/2
No = N/2
Ct
, gnralement gal 1
Ct
Ct
Ti = 0 / i = 0..Ne
(3.3)
o k (1, 2, ..., Ne ) et j (1, 2, ..., Dim) sont des indices choisis alatoirement et
k 6= i. ij est un nombre alatoire entre 1 et 1.
2. valuation de la solution candidate vij , en calculant fi , et la tness f iti par l'quation (3.2).
Si l'abeille employe i n'arrive pas amliorer la solution courante alors le compteur
T est incrment sinon il est mis 0 (Karaboga et al., 2007).
3. Calcul de la probabilit de la solution en utilisant l'expression suivante (Karaboga,
2005) :
pi =
f iti
Ne
P
(3.4)
f itg
g=1
2. Essayer d'amliorer la solution i en utilisant le mme mcanisme dcrit dans l'quation (3.3) (Karaboga et al., 2007).
3. valuer la solution i en utilisant l'quation (3.2).
71
cmax
i = 1..npred .
(3.5)
Les sources de nourriture les plus proches des prdateurs sont remplaces par des sources
alatoires par la formule (3.6) :
/ 1..npred .
snic+1 = snic + e|dm | (snimax snimin ) ic
(3.6)
o dm est la distance entre la proie snic et le prdateur le plus proche donne par l'quation
suivante :
npred
(3.7)
dm = min d(snic , snpredj )
j=1
73
input : N , cmax ,
output : Optimal solution
1 Initialize N , cmax , , npred ;
2 Ne = No = N/2;
3 Initialize start food sources;
4
5
6
7
8
9
10
11
12
end
for Each onlooker i do
Compute probability pi ;
Select source using pi ;
Create new source vi and apply greedy selection;
13
end
14
15
16
17
18
19
end
end
Figure
3.6: AlgorithmeABC-PP
Non
Conditions
Oui
Tests paramtriques
Tests nonparamtriques
Comparaison paires
Wilcoxon test
Comparaison multiple
pvalue <
Non
Pas de dirences
Oui
Post Hoc procedures
Estimation du contraste
Figure
- f1 : Sphere Function.
- f2 : Rotated High Conditioned Elliptic Function.
- f3 : Rotated Bent Cigar Function.
75
PMBBO
ABC-PP
Paramtre
Valeur
Paramtre
Valeur
Nombre d'habitats N
50
Nombre d'abeilles N
50
E,I
1
/
Nombre de prdateurs npred
50
Nombre de prdateurs npred
50
f1
f2
f3
f4
f5
f6
f7
f8
f9
f10
f11
f12
f13
f14
f15
f16
f17
f18
f19
f20
f21
f22
f23
f24
f25
f26
f27
f28
Func
TPC-GA
0.0000E+00
4.7601E+05
1.0571E+08
3.3297E+00
4.7716E+04
4.7228E+01
4.1650E+01
2.1190E+01
7.4306E+01
1.0474E-01
5.5675E+01
9.8267E+01
1.9277E+02
2.5498E+03
9.8398E+03
3.6752E+00
1.1468E+02
1.6788E+02
8.9243E+00
2.3492E+01
7.9256E+02
3.5099E+03
1.0798E+04
3.7872E+02
3.8938E+02
4.2752E+02
2.0812E+03
4.5930E+02
SMADE
2.2700E-13
2.2700E-13
3.8100E+05
2.2700E-13
6.8200E-13
4.3000E+01
4.3200E+01
2.1100E+01
4.3600E+01
2.4700E-02
4.8100E+01
1.5700E+02
3.3500E+02
3.4100E+02
8.5400E+03
8.9600E-02
6.5700E+01
1.9300E+02
5.4300E+00
1.9200E+01
8.4600E+02
3.3900E+02
9.8900E+03
3.0000E+02
.6800E+02
2.9100E+02
1.1800E+03
1.0700E+03
fk-PSO
0.0000E+00
2.7600E+06
9.6800E+08
5.2500E+02
0.0000E+00
5.5100E+01
7.8100E+01
2.1100E+01
3.8500E+01
2.1300E+01
8.6100E+01
1.4500E+02
2.7400E+02
1.9600E+03
6.6300E+03
1.3000E+00
1.1600E+02
1.3200E+02
7.8200E+00
2.0600E+01
8.3400E+02
2.2200E+03
7.4000E+03
3.0000E+02
3.0000E+02
3.9000E+02
1.3200E+03
1.6300E+03
PMBBO
0.00E+00
2.11E+02
3.65E+03
1.69E+00
2.00E-03
3.70E+01
2.30E+01
2.11E+01
4.52E+01
8.50E-01
3.28E+01
1.05E+02
1.55E+02
9.56E+03
7.11E+03
2.20E+00
8.72E+01
1.46E+02
5.10E+00
2.20E+01
6.60E+02
7.75E+02
6.84E+03
3.44E+02
3.41E+02
2.11E+02
1.56E+03
8.52E+02
ABC-PP
0.0000E+00
0.0000E+00
0.0000E+00
0.0000E+00
0.0000E+00
0.0000E+00
1.0E-01
1.18E+01
1.95E+00
0.0000E+00
1.256E+00
2.895E+00
8.897E+00
1.11458E+02
1.00621E+03
2.548E-02
2.42514E+01
2.94587E+01
0.95689E+00
1.0584E+01
9.22003E+01
1.15487E+02
1.69237E+02
9.2514E+00
1.21022E+02
8.9154E+01
7.90252E+02
1.55251E+02
ICMAELILS
1.0000E-08
1.0000E-08
2.0100E-02
1.0000E-08
1.5200E-08
4.1900E+01
5.4400E-01
2.1100E+01
8.1800E+00
1.0000E-08
5.9400E+00
5.7700E+00
5.7300E+00
8.5900E+02
6.4200E+02
6.2800E-01
5.7500E+01
6.4300E+01
3.6200E+00
2.4400E+01
2.0000E+02
5.8700E+02
5.5700E+02
2.0000E+02
2.7400E+02
2.4100E+02
3.0200E+02
4.0000E+02
Table
78
Algorithme
ICMAELILS
TPC-GA
SMADE
fk-PSO
PMBBO
ABC-PP
Kolmogorov-Smirnov
Shapiro-Wilk
Statistique p value Statistique p value
.299
.000
.722
.000
.530
.000
.190
.000
.490
.000
.203
.000
.534
.000
.189
.000
.372
.000
.529
.000
.337
.000
.461
.000
les rsultats du test de Levene sont dans la Table 3.5. Ils montrent que les variances des
distributions des dirents algorithmes ne sont pas homognes pour certains problmes.
Puisque les deux conditions de normalit et homognit des variances ne sont pas vries, l'application des tests paramtriques est impossible ce qui nous conduit appliquer
les tests non-paramtriques dans la prochaine section.
Algorithme
ICMAELILS
SMADE
TPC-GA
fk-PSO
PMBBO
ABC-PP
Algorithme
ICMAELILS
SMADE
TPC-GA
fk-PSO
PMBBO
ABC-PP
f2
.02
.00
.00
.05
.00
.00
f16
.00
.00
.01
.00
.01
.00
f1
.01
.00
.00
.00
.00
.00
f15
80
.0
.00
.0
.01
.00
.00
.00
.00
.02
.00
.01
.02
f17
.02
.00
.04
.06
.02
.02
.06
.00
.06
.00
.00
.07
f18
.06
.03
.05
.06
.07
.07
f4
.01
.01
.00
.01
.01
.00
f19
.01
.00
.01
.00
.00
.00
f5
.00
.01
.00
.00
.00
.00
f20
.00
.01
.00
.00
.00
.00
f6
.00
.00
.00
.02
.00
.00
f21
.01
.00
.00
.00
.00
.00
f7
.01
.00
.00
.06
.00
.00
f22
.00
.05
.06
.00
.00
.00
f8
.00
.00
.00
.01
.00
.00
f23
.01
.00
.01
.01
.00
.00
f9
.00
.00
.01
.08
.00
.00
f24
.00
.00
.00
.00
.00
.00
f10
.01
.01
.01
.01
.00
.01
f25
.01
.01
.01
.05
.01
.01
f11
f3
Table
.01
.00
.01
.01
.01
.00
f26
.01
.02
.00
.01
.00
.00
f12
.00
.00
.00
.01
.01
.01
f27
.01
.01
.00
.01
.01
.01
f13
.01
.00
.00
.01
.00
.00
f28
.00
.01
.00
.01
.00
.00
f14
lit).
Calculer R+ , R la somme des rangs des dirences positives et les rangs des dif-
frences ngatives respectivement. Les rangs des dirences nulles sont rpartis de
manire quitable entre les deux sommes. Un rang est ignor en cas de nombre
impair de dirences gales.
Utiliser la valeur de T = min(R+ , R ) pour dterminer la p-value p du test l'aide
81
Pair
ABC-PP vs ICMAELILS
ABC-PP vs SMADE
ABC-PP vs TPC-GA
ABC-PP vs fk-PSO
ABC-PP vs PMBBO
R+
228.0 48.0
299.0 1.0
405.0 1.0
377.0 1.0
377.0 1.0
p-value
.21
.313
.051
.54
.54
Test de Friedman
1X j
r j = 1..k
Rj =
n i=1 i
(3.8)
(3.9)
La signication de M peut tre calcule quand n > 10 et k > 5 mais lorsque la valeur de
k et/ou n dpasse ces seuils, la signication de M peut tre recherche dans la table de
distribution 2 avec k 1 degrs de libert (Sheskin, 2006).
Le test de Iman and Davenport est un test non-paramtrique moins conservateur (Iman
and Davenport, 1980), driv du test de Friedman, son statistique est donne par :
MID =
(n 1)M
n(k 1) M
(3.10)
qui suit une distribution F avec k 1 et (k 1)(n 1) degrs de libert. Les tableaux
statistiques pour les valeurs critiques peuvent tre trouvs dans (Sheskin, 2006).
Lorsque le nombre des algorithmes considrs est faible, le test de Friedman est moins
sensible aux dirences entre les traitements. Cela est d au fait que dans le test de Friedman, les observations sont classs au sein d'un problme (Derrac et al., 2011).
Dans le test des rangs aligns (Aligned ranks) de Friedman, la mesure de chaque
problme est la performance moyenne ralise par tous les algorithmes pour ce problme.
Les observations aligns sont la dirence entre la performance d'un algorithme pour un
problme donn et la valeur de sa mesure (Hodges and Lehmann, 1962).
Les observations alignes pour tous les algorithmes et tous les problmes sont ensuite
classes partir de 1 nk . Ces rangs sont appels les rangs aligns (Hodges and Lehmann,
1962).
La statistique du test est dcrite dans l'quation (3.11) :
!
(k 1)
MAR =
Pk
j=1
Pn
2
i=1 Ri
(3.11)
o R i est la somme des rangs du iime problme et R j est la somme des rangs du j ime
algorithme. La statistique du test est compare avec une distribution 2 avec k 1 degrs
de libert.
Test de Quade
Le test de Quade est souvent plus puissant que le test de Friedman (Quade, 1979). Il
limine galement les dirences de blocs.
83
(3.12)
o Sij est la taille relative de chaque observation dans le problme, ajuste pour tenir
compte de l'importance relative du problme dans lequel elle apparat (Conover, 1999).
Sj est la somme pour l'algorithme j :
Sj =
n
X
(3.13)
Sij
i=1
MQ = |
(n 1)B
|
AB
(3.14)
n X
k
X
Sij2
i=1 j=1
B=
k
X
Sj2
(3.15)
j=1
point se trouve alors dans la rgion critique de la distribution statistique et la p-value est
gale (1/k!)b1 (Conover, 1999), (Derrac et al., 2011).
Si la p-value des tests de Friedman, Iman-Davenport, Friedman Aligned Ranks, et
Quade est infrieure au niveau de signication choisi alors l'hypothse nulle est rejete
ce qui signie qu'il y a des dirences entre les algorithmes compars (Derrac et al., 2011).
D'aprs la Table 3.7 qui reprsente les rangs moyens, les statistiques et p-values obtenus
des trois tests, les tests de Friedman, Friedman Aligned Ranks, et Quade illustrent ABCPP comme le meilleur algorithme de la comparaison avec un rang de 5.82142, 127.48214 et
5.81896 respectivement dans le mme temps notre deuxime algorithme PMBBO est class
en 3ime position par le test de Friedman avec un rang de 3.17857 tandis que Friedman
84
Algorithme
Friedman
Aligned Friedman
Quade
ICMAELILS
TPC-GA
SMADE
fk-PSO
PMBBO
ABC-PP
Statistic
p-value
4.44642
1.94642
3.107142
2.5
3.17857
5.82142
79.64795
4.76899E-11
119.08928
59.51785
76.26785
48.42857
76.21428
127.48214
22.508262
4.19022E-4
4.65763
1.83866
3.14901
2.46059
3.07512
5.81896
31.57937
-2.22041E-16
Friedman :
(Ri Rj )
z= q
k(k+1)
6n
(3.16)
o Ri et Rj sont les rangs moyens des algorithmes compars obtenus par le test de
Friedman.
85
Aligned Friedman :
(Ri Rj )
z= q
k(k+1)
6n
(3.17)
o Ri et Rj sont les rangs moyens des algorithmes compars obtenus par le test de
Friedman (Derrac et al., 2011).
Quade :
z=q
(Ti Tj )
k(k+1)(2n+1)(k1)
18n(n+1)
(3.18)
Wj
Wi
o Ti = n(n+1)/2
, Tj = n(n+1)/2
, Wi et Wj sont les rangs sans ajustement moyen de
l'algorithme compar obtenus par le test de Quade.
La valeur de z est utilise dans toutes les procdures post hoc pour trouver la p-value
correspondante partir d'une distribution normale. Cette valeur est compare avec le
niveau de signication . La dirence entre ces procdures est dans la manire avec
laquelle la valeur de est ajuste pour compenser l'eet de la comparaison multiple.
Les p-values pour chaque comparaison obtenues par le test de Friedman et ses alternatives ne prennent pas en compte les comparaisons restantes. Pour traiter ce problme, il
est recommand d'utiliser les p-values ajustes (APV) parce que les procdures post-hoc
changent le niveau de signication pour chaque paire de comparaison (Derrac et al.,
2011).
Les procdures post-hoc implmentes et leur p-values ajustes sont dcrites ci-dessous
o pi est la p-value calcule pour la iime hypothse et AP Vi est sa valeur ajuste (Derrac
et al., 2011).
1. Procdure de Bonferroni-Dunn
La procdure de Bonferroni-Dunn ajuste la p-value en divisant la valeur de par
le nombre de comparaisons eectues k 1 (Dunn, 1961).
AP Vi = min((k 1)pi , 1).
2. Procdure de Holm
C'est une procdure step down o les p-values pi obtenues partir des k 1 comparaisons sont classes dans un ordre croissant(1 k 1).
L'hypothse H1 est rejete par rapport l'hypothse Hi1 si i est le plus petit en86
3. Procdure de Holland
Dans cette procdure, la valeur de est ajuste de faon similaire la mthode
de Holm. H1 est rejete par rapport Hi1 si i est le plus petit entier tel que
pi > 1 (1 )ki (Holland, 1987).
AP Vi = min(max(1 (1 pj )kj ), 1), 1 j i.
4. Procdure de Finner
Dans cette procdure, H1 est rejete par rapport Hi1 si i est le plus petit entier
tel que pi > 1 (1 )(ki)/i (Finner, 1993).
AP Vi = min(max(1 (1 pj )(k1)/j , 1), 1 j i).
5. Procdure de Hochberg
Cette procdure rejette Hi1 par rapport H1 si i est le plus grand entier tel que
pi > /(k i) (Hochberg, 1988).
AP Vi = max((k j)pj ), k 1 j i.
6. Procdure de Hommel
Cette procdure essaye de trouver le plus grand j pour lequel pnj+k > k/j o
1 k j . Si j existe, la procdure rejette toutes les hypothses vriant pi /j
sinon, toutes les hypothses sont rejetes.
La AP Vi pour cette procdure est calcule par un algorithme qui peut tre trouv
dans (Hommel, 1988).
7. Procdure de Rom
Cette procdure opre de la mme faon que la procdure de Hochberg, mais la
valeur de est calcule par l'quation suivante (Rom, 1990) :
ki =
Pi1
j=1
87
Pi2
i
j=1 k
ij
k1j
]
(3.19)
8. Procdure de Li
L'approche de Li est base sur deux tapes pour rejeter des hypothses (Li, 2008) :
- Si pk1 alors rejeter toutes les hypothses sinon accepter l'hypothse associe
pk1 .
- Rejeter toutes autres hypothse Hi avec pi (1 pk1 )/(1 ).
AP Vi : pi /(pi + 1 pk1 ).
tests de Friedman et Quade. Les rsultats obtenus dans la Figure 3.8 et Figure 3.10
montrent que les p-values obtenues par ces procdures sont trs infrieures au seuil
de rejet (en noir dans les gures). Ceci indique que ABC-PP est donn meilleur que
les autres avec une grande marge de rejet.
Pour le cas du test de Friedman-Aligned, l'algorithme ABC-PP est meilleur que
Friedman-Aligned ont montr que ICMAELILS est meilleurs que notre algorithme
ABC-PP. Cette dirence entre les deux algorithmes(ABC-PP et ICMAELILS) est
minime (cf. Figure 3.9) et l'hypothse nulle est rejete avec une p-value trs proche
du seuil du rejet.
La procdure de Hochberg ncessite le plus petit niveau de conance = 0.0125
89
Test
Friedman
Fried Aligned
Quade
ABC-PP vs
TPC-GA
fk-PSO
SMADE
PMBBO
ICMAELILS
fk-PSO
TPC-GA
PMBBO
SMADE
ICMAELILS
TPC-GA
fk-PSO
PMBBO
SMADE
ICMAELILS
5
4
3
2
1
5
4
3
2
1
5
4
3
2
1
1.09E-5
0.00183
0.0029526
0.0034368
0.0098386
1.19E-9
5.46E-8
0.016115
0.016284
0.019682
9.18E-15
5.73E-7
0.001372
0.002026
0.0026823
p-value
5.45E-5
0.00919
0.0014763
0.00171844
0.0098386
5.97E-9
2.73E-7
0.0080585
0.008142
0.009841
5.45E-5
0.00735
0.0088578
0.0088578
0.0098386
5.97E-9
2.18E-7
0.004835
0.004835
0.019682
Holm
4.59E-14
2.29E-6
0.004118
0.004118
0.0026823
5.45E-5
0.00735
0.0068738
0.0068738
0.0098386
5.97E-9
2.18E-7
0.0032565
0.0032565
0.019682
Hoch
4.59E-14
2.29E-6
0.004052
0.004052
0.0026823
5.45E-5
0.00735
0.0059052
0.0068738
0.0098386
5.97E-9
2.18E-7
0.0032235
0.0032565
0.019682
5.45E-5
0.00733
0.0076144
0.0076144
0.0098386
5.97E-9
2.18E-7
0.004681
0.004681
0.019682
Procedures
Homm
Holl
4.59E-14 4.60E-14
2.29E-6
2.29E-6
0.003039 0.004062
0.004052 0.004062
0.0026823 0.0026823
Bonf
4.59E-14
2.86E-6
0.006864
0.0010131
0.0034116
Table
5.18E-5
0.00701
0.0068738
0.0068738
0.0098386
5.67E-9
2.08E-7
0032565
0.0032565
0.019682
Rom
4.36E-14
2.18E-6
0.004052
0.004052
0.0026823
5.45E-5
0.00459
0.0046746
0.0046746
0.0098386
5.97E-9
1.36E-7
0.002657
0.002657
0.019682
Finn
4.60E-14
1.43E-6
0.002277
0.002526
0.0026823
2.14E-5
0.00360
0.004503
0.0050548
0.0098386
1.96E-9
9.01E-8
0.0025235
0.0025485
0.019682
Li
1.25E-14
7.83E-7
0.001841
0.002694
0.0026823
Test
Friedman
Friedman aligned
Quade
0.01
0.01
0.01
Bonf-Dunn
0.025
0.0125
0.0125
Hochberg
Holland
0.05
0.0500
0.025
0.016952
0.0166666 0.016952
Hommel
0.05
0.01666
0.0166666
Holm
Table
0.025
0.013109
0.0131093
Rom
0.0500
0.030307
0.03030
Finner
0.0385
0.03191
0.02674
Li
90
0.05
fkPSO
TPCGA
PMBBO
SMADE
ICMAELILS
Seuil de rejet
0.04
0.03
0.02
0.01
0
BonfDunn
Figure
Holm
Hochberg
Hommel
Holland
Rom
Finner
Li
fkPSO
TPCGA
PMBBO
SMADE
ICMAELILS
Seuil de rejet
0,02
0,015
0,01
0,005
0
BonfDunn
Figure
Holm
Hochberg
Hommel
Li
Finner
Rom
Holland
0.035
TPCGA
fkPSO
PMBBO
SMADE
ICMAELILS
Seuil de rejet
0.03
0.025
0.02
0.015
0.01
0.005
0
BonfDunn
Figure
Holm
Hochberg
Hommel
Holland
Rom
Finner
Li
(3.20)
j=1
Zuj
, u = 1..k.
(3.21)
ICMAELILS
TPC-GA
SMADE
fk-PSO
PMBBO
ABCPP
ICMAELILS
0,000
94,06
67,51
90,78
65,03
TPC-GA
SMADE
fk-PSO
PMBBO
-94,06
-67,51
-90,78
-65,03
0,000
3,282
-23,27
-3,282
26,55
0,00
23,27
-29,03
-2,479
-25,74
29,03
2,479
25,74
0,000
-43,91
-138,0
-111,4
-134,7
-108,9
-26,55
0,000
ABCPP
43,91
138,0
111,4
134,7
108,9
0,000
Paramtre
Valeur
Taille de la colonie (N )
30
Nombre Maximum d'valuations 10000
Nombre de prdateurs
6
Fonction objective
3
2.98
ABC-PP
GA
2.96
2.94
2.92
2.9
10
12
14
16
18
20
22
24
26
28
30
Cycles
Figure
3.11: Valeurs minimales de la fonction objectif obtenues par ABC-PP et les AG)
25
Gains
20
Kp
Kd
Ki
15
10
5
0
0
10
12
14
16
18
20
22
24
26
Cycles
Figure
94
28
30
Angle (Rad)
ABC-PP
GA
0.2
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
Tiemps(s)
f
Figure
Table
3.12: Performance du pendule invers contrl par PID (ABC-PP et les AG)
Excution
1
2
3
4
5
6
7
8
9
10
ABC-PP
Min tness Tr (s) Omax
2.900
2.921
2.935
2.922
2.928
2.947
2.928
2.936
2.939
2.911
2.931
2.902
2.972
2.928
2.981
2.968
2.994
2.913
3.015
2.910
0.155
0.160
0.194
0.172
0.171
0.208
0.180
0.191
0.197
0.178
0.012
0.012
0.014
0.011
0.012
0.015
0.012
0.014
0.014
0.012
GA
0.112
0.158
1.783
0.175
1.730
2.301
4.117
0.167
4.360
0.164
0.060
0.014
0.018
0.020
0.020
0.048
0.014
0.013
0.031
0.013
6 Conclusion
Dans ce chapitre, une tentative d'amlioration de l'algorithme d'optimisation par colonie d'abeilles articielles est prsente an d'accroitre son eet de diversication. Il a t
hybrid en remplaant la phase des scouts avec l'algorithme prdateur et proies amlior.
Pour valider l'algorithme obtenu (ABC-PP), une tude statistique a t ralise en le
comparant l'algorithme PMBBO prsent au chapitre 2 et quatre autres algorithmes
d'optimisation issus de la comptition CEC2013.
Dans le but d'appliquer les tests paramtriques, des conditions pralables ont t
vries sans succs (Normalit et galit de variance). Ces rsultats nous ont conduit
appliquer les tests non paramtriques de Wiilcoxon pour une comparaison de paires
95
96
Chapitre 4
Apprentissage hors ligne des rseaux de
neurones RBF par l'algorithme
ABC-PP
1 Introduction
L'apprentissage d'un rseau de neurones est une tche d'optimisation dont le but est
de trouver un ensemble de poids qui minimise une erreur mesure. Gnralement, l'espace
de recherche est de grande dimension et, en fonction de la mesure d'erreur et les donnes
d'entre, il peut contenir de nombreux optima locaux. Certains algorithmes d'apprentissage traditionnels tel que la rtro-propagation, utilisent une recherche de gradient, et
peuvent se retrouver pigs dans des optima locaux. En revanche, les algorithmes volutionnaires n'utilisent aucune information de gradient, et sont probablement les mieux
placs pour viter d'tre pris au pige du fait de leur exploration simultane de plusieurs
rgions de l'espace de recherche (Cant-Paz and Kamath, 2005).
Une simple combinaison d'algorithmes volutionnaires et rseaux de neurones est d'utiliser l'algorithme volutionnaire pour la recherche des poids pour que le rseau fonctionne
comme souhait. L'architecture du rseau est xe par l'utilisateur avant l'exprience.
Dans cette approche, chaque individu de l'algorithme volutionnaire reprsente un vecteur avec tous les poids du rseau.
Dans (Caudell and Dolan, 1989), (Yeremia et al., 2013) et (Mahajan and Kaur, 2013),
les poids obtenus sont utiliss dans le rseau sans aucun ranement . Ceci est particulirement utile lorsque la fonction d'activation des neurones est non direntiable et les
algorithmes d'apprentissage traditionnelles ne peuvent pas tre utiliss. Une alternative
est d'utiliser la rtro-propagation ou d'autres mthodes pour aner les poids reprsents
dans chaque individu (Kitano, 1990), (Skinner and Broughton, 1995). La motivation de
cette approche est que les algorithmes volutionnaires identient rapidement les rgions
97
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
prometteuses de l'espace de recherche, mais ils ne peuvent pas aner trs rapidement
les paramtres. Ainsi, les algorithmes volutionnaires sont utiliss pour trouver un ensemble prometteur des poids initiaux partir duquel une mthode base de gradient
peut rapidement atteindre un optimum.
Ces approches sont simples et ont donn de bons rsultats, mais sourent de plusieurs
problmes. Tout d'abord, tant donn que des couches adjacentes dans le rseau sont
habituellement entirement connectes, le nombre total de poids est en O(n2 ), o n est
le nombre d'units ce qui conduit des individus plus longs et des populations plus
importantes, qui son tour va entraner des cots de calcul plus levs. Pour les petits
rseaux, les algorithmes volutionnaires peuvent tre utiliss pour rechercher des bons
poids ecacement, mais ces mthodes ne peuvent pas tre tendues vers des rseaux plus
larges (Cant-Paz and Kamath, 2005).
Un autre inconvnient est le problme des permutations (Radclie, 1990). Le problme
est que, en permutant les nuds cachs d'un rseau, la reprsentation des poids dans
l'individu changerait mais le rseau reste le mme. Pour s'y remdier, (Thierens et al.,
1991) proposent de placer le poids entrant et sortant d'un nud cach l'un ct de
l'autre. Une analyse ralise par (Hancock, 1992) suggre que le problme de permutation
n'est pas aussi dicile que cela est souvent prsent.
Dans ce chapitre, nous allons comparer l'algorithme propos dans le prcdent chapitre
(ABC-PP) avec quelques algorithmes volutionnaires pour l'apprentissage des rseaux de
neurones RBF. La comparaison est ralise travers une tude statistique rduite pour
choisir l'approche appliquer pour l'approximation des paramtres du modle dans la
commande sliding mode des systmes non linaires.
Des simulations sur le systme pendule invers seront prsentes dans la dernire
section en comparant les performances de l'algorithme ABC-PP et ceux de la rtropropagation de l'erreur pour l'apprentissage des rseaux de neurones RBF appliqus dans
la commande sliding mode.
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
L'ide principale derrire l'encodage direct est que le rseau neuronal est considr comme
un graphe orient o chaque nud reprsente un neurone et chaque arc est une connexion.
Une mthode courante de reprsenter des graphes orients est avec une matrice de connectivit binaire : le (i, j)ime lment de la matrice est 1 s'il y a un arte entre les nuds i
et j , et zro autrement. Les algorithmes volutionnaires cods en binaire semblent bien
adapts pour l'encodage direct, car la matrice de connectivit peut tre reprsente simplement en concatnant ses lignes ou ses colonnes (Miller et al., 1989), (Belew et al., 1991).
2) Encodage indirect :
Aprs avoir opt pour une topologie et un algorithme d'apprentissage particulier pour un
rseau, l'algorithme volutionnaire est utilis pour trouver les valeurs des paramtres qui
compltent la spcication du rseau.
Par exemple, avec un rseau feedforward entirement connect, l'algorithme volutionnaire peut rechercher le nombre de couches et le nombre des units par couche. Un
autre exemple serait de coder les paramtres d'un algorithme d'apprentissage particulier,
comme le momentum et le taux d'apprentissage de la rtro-propagation (Marshall and
Harrison, 1991). Cependant, cette mthode est limite par le choix initial de la topologie
et de l'algorithme d'apprentissage.
99
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
(4.1)
N
X
wi hi (x)
(4.2)
i=1
r(x)2 dx
(4.3)
N
X
ai i (x, i , i )
(4.4)
i=1
En utilisant le rseau de l'quation (4.4), la fonction f (x) peut tre crite sous la forme :
y=
N
X
(4.5)
i=1
L'erreur peut tre minimise en ajustant de manire approprie, les poids ai , les centres
i et les largeurs i .
Lorsque la fonction f (x) est inconnue, et en disposant d'un ensemble de couples EntresSorties (xi , yi ) , i = 1..n, nous pouvons construire un rseau RBF et l'apprendre suivre
la fonction f (x).
L'apprentissage de ce rseau est un problme d'optimisation pour choisir les valeurs des
100
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
centres, poids et largeurs an de minimiser le critre (4.6) :
2
J (, , a) =
n
X
||yi yi ||2 .
(4.6)
i=1
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
de validation et d'apprentissage diminuent ensemble. Lorsque le modle commence
tre surajust, la fonction de cot sur la base d'apprentissage continue de diminuer,
alors que la fonction cot sur la base de validation augmente.
Sauvegarde de la matrice des paramtres du rseau de neurones.
Un schma gnral de la procdure d'apprentissage hors ligne des rseaux RBF par
l'algorithme ABC-PP pour l'approximation des fonctions est donn dans la Figure 4.1
x
Fonction
Rseau
RBF
[
,
, a
]
Figure
ABC-PP
D
X
x2i
(4.8)
i=1
Ackley
v
u
D
D
u1 X
1 X
t
2
F 2(x1 xD ) = 20exp(0.2
x ) exp(
cos(2xi )) + 20 + e (4.9)
D i=1 i
D i=1
Ridge
D X
i
X
F 3(x1 xD ) =
(
xj )2
i=1 j=1
102
(4.10)
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
Rosenbrock
F 4(x1 xD ) =
D1
X
(4.11)
i=1
Schwefel
F 5(x1 xD ) =
D
X
(xi sin(
p
|xi |)) + D,
= 418.982887
(4.12)
i=1
Rastrigin
F 6(x1 xD ) = D 10 +
D
X
(x2i 10 cos(2xi ))
(4.13)
i=1
Trid
F 7(x1 xD ) =
D
X
D
X
(xi 1)
(xi xi1 )
2
i=1
(4.14)
i=1
Sum squared
F 8(x1 xD ) =
D
X
(4.15)
ix2i
i=1
Power Sum
F 9(x1 xD ) =
D
X
"
D
X
i=1
Griewangk
F 10(x1 xD ) =
n
Y
cos
(xji )
bj
(4.16)
i=1
i=1
#2
x
i
i
n
X
x2i
+
+1
4000
i=1
(4.17)
Pour eectuer la comparaison, chaque algorithme est excut 30 excutions indpendantes pour l'apprentissage d'un rseau RBF pour l'approximation de chaque problme
(D = 10). Le critre d'arrt est soit le nombre maximum des valuations de la fonction
objectif ou lorsque J ou J est l'erreur d'apprentissage donne dans l'quation (4.6).
Les paramtres des algorithmes utiliss sont donns dans la Table 4.1 et Table 4.2.
Les erreurs moyennes d'apprentissage obtenues partir des 30 excutions sont illustres
dans la Table 4.3. Ces rsultats seront analyss avec les tests de Wilcoxon et estimation
du Contraste.
103
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
4.1: Paramtres des algorithmes PMBBO, ABC et ABCPP pour l'apprentissage
des rseaux RBF.
Table
PMBBO
ABC-PP et ABC
Paramtre
Valeur
Paramtre
ABC-PP
Nombre d'valuations
100D
Nombre d'valuations
100D
Nombre d'habitats N
100
Nombre d'abeilles N
100
E,I
1
Limit
/
/
/
Nombre de scout
/
Nombre de prdateurs npred
6
Nombre de prdateurs
6
Neurones cachs
20
Neurones cachs
20
1e 6
1e 6
ABC
100D
100
3
1
/
20
1e 6
4.2: Paramtres des algorithmes Gntiques pour l'apprentissage hors ligne des
rseau RBF
Table
Paramtre
Valeur
Chromosomes
100
Nombre des valuations
100D
Taux de croisement
0.6
Type de croisement
Deux points
Taux de Mutation
0.01
type de Mutation
bit ip
Neurones cachs
20
1e 6
Table
ABC-PP
ABC
PMBBO
AG
5.1230
6.8940
6.4120
8.0160
21.2510 22.9950 25.7850 24.0110
12.0201 18.1660 19.0550 38.1090
30.1580 30.9870 35.3290 36.5560
99.1250 101.2540 114.7710 120.3640
41.9000 41.5620 47.2280 43.0000
211.5440 249.7100 241.6500 243.2000
121.1000 121.1190 122.8900 124.4050
18.2800 19.2210 24.3060 24.6000
54.1130 60.3250 61.1040 62.0240
104
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
sont rejetes.
Table
R+
p-value
ABC-PP vs ABC
ABC-PP vs. AG
ABC-PP vs. PMBBO
PMBBO vs. ABC
AG vs. PMBBO
ABC vs. AG
2
0
45
42
15
8
53
55
10
13
40
47
0.009
0.005
0.005
0.139
0.203
0.047
105
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
Table
RBF
ABC
PMBBO
AG
0.000
1.869
4.861
6.088
-1.869
-3.898
-2.993
-5.767
-4.219
-1.227
ABC-PP
ABC
PMBBO
AG
0.000
2.993
4.219
0.000
1.227
0.000
(4.18)
o (x) est le vecteur des sorties des neurones cachs, a1 et a2 sont les vecteurs correspondants aux poids des deux sorties.
En remplaant les fonctions f (x) et g(x) dans l'quation (1.31) par les estimations f(x)
et g(x), la commande quivalente devient :
ue =
i
1 h
f (x) + xd x + x d
g(x)
(4.19)
Le schma bloc de la commande sliding mode base des rseaux RBF et l'algorithme
ABC-PP est donn par la Figure 4.3 (Salem and Khel, 2014a).
106
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
x1
a21 a11
x2
a12
a1N
a22
xN x
Figure
g(x)
a2N
f(x), g(x)
yd (t)
f(x)
Commande ue (t)+ P
quivalente
e(t)
u(t)
x(t)
Systme
y(t)
s = e + e
Figure
Ksign(s)
uc (t)
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
L'volution de J est reprsente dans la Figure 4.5 o nous pouvons remarquer que
l'algorithme de rtro-propagation tarde jusqu' l'itration 200 pour descendre au dessous
de 1 et atteindre des valeurs plus au moins acceptables. Dans le mme temps, ABC-PP a
atteint les mmes valeurs aprs le 10ieme cycle.
L'erreur obtenue avec l'algorithme ABC-PP est 1e 06 et celle de la rtro-propagation
est gale 2e 04.
Nous remarquons aussi que l'algorithme de rtro-propagation tombe souvent dans des
minima locaux o l'erreur quadratique n'volue pas pendant plusieurs poques (jusqu' 20
itrations sans changement) alors que ABC-PP volue rapidement vers la valeur minimale.
Ceci est d la diversication apporte par le modle prdateur et proie amlior qui
permet d'explorer d'autres zones de l'espace de recherche.
Angle(Rad)
1
0
50
100
150
200
250
300
350
400
450
500
Echantillons
Figure
Table
ABC-PP
Rtro-propagation
Paramtre
Valeur
Paramtre
Valeur
Nombre de cycles (cmax )
500
Nombre d'itrations
500
Nombre d'abeilles N
200
Taux d'apprentissage
0.6
Nombre de prdateurs
5
Momentum
0.9
Neurones cachs
16
Neurones cachs
16
Entres
,
Entres
,
et g(, )
et g(, )
Sorties
f (, )
Sorties
f (, )
1e 6
108
1e 6
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
Erreur d'apprentissage
12
Rtropropagation
ABC-PP
10
8
6
4
2
0
0
50
100
150
200
250
300
350
400
450
500
Itrations/ Cycles
Figure
109
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
Angle (Rad)
0.2
Angle dsir
Angle , ABC-PP
Angle , Rtro-propagation
0.1
0
0.1
0
10
Temps(s)
Erreur angulaire(Rad)
Figure
ABC-PP
Retropropagation
0.15
0.1
5 102
0
0
10
Temps(s)
Figure
Rtro-propagation
ABC-PP
1
0
1
0
Temps(s)
Figure
110
10
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
Rtropropagation
ABC-PP
0.5
10
Temps(s)
Signal de commande
Figure
1
0
10
Temps(s)
Figure
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
il est montr dans la Figure 4.14 et l'apparition du phnomne du chattering (Oscillations
sur la courbe du signal de commande) dans la Figure 4.15 est la consquence de la mauvaise
estimation du rseau RBF.
102
Bruit
0.5
0
0.5
0
10
10
Temps(s)
Figure
1
0
Temps(s)
Figure
112
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
1.1
1.05
10
Temps(s)
Figure
102
Erreur angulaire(rad)
4
2
0
0
10
Temps(s)
Signal de commande
Figure
1
0
Temps(s)
Figure
10
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
ponibilit de toute la base des donnes de l'apprentissage, ce qui ne peut pas tre
le cas quand le systme n'est pas disponible pour collecter les donnes comme les
machines industrielles dj en fonctionnement.
Le fait que le nombre des neurones doit tre dtermin par ttonnement, constitue un
Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
Les systmes non linaires sont gnralement sujets des incertitudes paramtriques
idal, l'existence de phnomnes naturelles tel que les vents et les frottements gnre
des bruits inuant ainsi sur la robustesse du contrleur sliding mode, celui-ci, et en
essayant de compenser ces bruits et incertitudes va utiliser de grands gains ce qui
conduit l'apparition du phnomne de chattering (Voir les rsultats du test de
robustesse de ce chapitre).
Ces limites nous ramnent conclure que l'algorithme ABC-PP en particulier, n'est pas
appropri pour l'apprentissage des rseaux de neurones utiliss pour l'approximation des
systmes non linaires rels, non pas parce qu'il est moins performant mais les circonstances d'utilisation de tels rseaux le rendent inappropri et dprcient ses performances.
Cette conclusion nous oblige parier sur un autre type d'algorithmes d'apprentissage,
savoir l'apprentissage enligne an de ragir en temps rel aux changement qui caractrisent
les systmes non linaires.
L'application de l'algorithme ABC-PP a t le sujet d'une communication internationale WCCS14.
c
)
snpredi = snbi + (1 cmax
snic+1 = snic + e|dm | (snimax snimin )
115
Chapitre 5
Apprentissage en ligne des rseaux de
neurones RBF par l'approche
GAP-EKF
1 Introduction
Plusieurs techniques ont t dveloppes pour l'apprentissage des rseaux RBF. Nanmoins, ces approches sourent d'un problme pnalisant o il faut avoir la totalit de la
base d'apprentissage, qui est chose dicile voir impossible dans la ralit.
Avec cette contrainte, le rseau de neurones obtenu ne pourra pas ragir aux changements ds une variation du comportement du systme ou un bruit de mesure. Dans ce
cas, nous serons alors obligs de rapprendre de nouveau le rseau de neurones.
L'apprentissage en ligne apparait comme une bonne alternative pour combler ces insusances. L'ide dans ce type d'algorithmes est de modier les paramtres du rseau
RBF fur et mesure que des couples entres-sorties sont reus (Haykin, 1999). Parmi
les algorithme d'apprentissage en ligne les plus utiliss nous trouverons l'approche RAN
(Resource Allocation Network) et son extension RANEKF (RAN extended Kalman Filter)
propose par (Kadirkamanathan and Niranjan, 1993) o un ltre de Kalman est utilis
pour ajuster les paramtres des neurones.
MRAN, l'amlioration de l'algorithme RAN, permet de combiner les critres de croissance RAN avec une stratgie d'lagage pour obtenir une structure minimale du rseau,
mais cet algorithme a une grande complexit de calcul (Li et al., 2000).
Dans ce chapitre, nous prsenterons un nouvel algorithme d'apprentissage squentiel
(online) bas sur la modication des paramtres du rseau par un ltre de Kalman tendu
chaque prsentation de nouveaux couples de donnes Entres/Sorties. une autre caractristique de cet algorithme est qu'il utilise une approche Growing and Pruning (GAP)
pour calculer le nombre de neurones ncessaires pour chaque couple de donnes (Salah116
N
X
akj exp kxi j k2 /2j2 + ako .
(5.1)
j=1
Les paramtres du rseau (poids, centres et largeurs des fonctions gaussiennes) sont dnis
par le vecteur w :
w = [
a,
,
] = a1 . . . aN Ny ; 1 ...N Nx ; 1 ...N
(5.2)
GAP-EKF est une approche base sur l'allocation des ressources o le nombre des neurones cachs N est gal 0 au dbut et au besoin, ce nombre est incrment ou dcrment.
Le processus d'apprentissage de GAP-EKF implique l'attribution de nouveaux neurones cachs ainsi que l'adaptation des paramtres du rseau par un ltre de Kalman
tendu (EKF).
Le droulement de l'algorithme est rsum dans la Figure 5.1 (Huang et al., 2005).
117
(5.3)
(5.5)
j=1
o ei est l'erreur entre la sortie du rseau yi et la sortie dsire yi . Elle est dnit par
l'quation (5.6) :
ei = yi yi .
(5.6)
Le vecteur ir contient les centres du neurone le plus proche de l'entre courante xi . g1 , g2
sont des seuils dnir pour chaque problme.
L'quation (5.4) vrie si l'entre courante xi est assez loin de tous les centres des neurones existants de telle faon qu'ils ne peuvent pas ragir cette entre tandis que l'quation (5.5) vrie si le nouveau neurone ajouter N + 1 soit susamment inuent pour
tre ajout.
Les paramtres du nouveau neurone sont dcrits dans l'quation (5.7) (Huang et al.,
2005) de telle sorte que les centres du nouveau neurone correspondent l'entre xi et les
poids reliant le neurone ajout aux sorties sont donnes par le vecteur ei .
aN +1 = ei
N +1 = xi
N +1 = kxi ir k
118
(5.7)
Critre d'ajout ?
Oui
Non
Ajuster les paramtres du neurone le
plus proche par EKF
Recalculer yi
Non
Oui
Critre de suppression ?
Oui
Autres donnes ?
Supprimer neurone
N N 1
Non
Fin
Figure
119
r
wir = wi1
+ Ki e i .
Le vecteur wir contient les poids, centres et la largeur du neurone le plus proche comme
le montre l'quation (5.9). (Huang et al., 2005) :
(5.9)
wr = [ar , r , r ] .
Ki est la matrice des gains de Kalman calcule pour chaque entre/ sortie :
Ki = Pi1 Bi [Ri + BiT Pi1 Bi ]1 .
(5.10)
Bi = w y est la matrice du gradient pour la fonction reliant les entres aux sorties y. Ri
est la variance du bruit des mesures. Pi est la matrice de covariance de l'erreur dnit
(5.11)
Pi1
0
0 q0 Igg
!
.
(5.12)
les nouvelles lignes et colonnes sont initialises par q0 (une estimation initiale de l'incertitude). g = Nx + Ny + 1 est le nombre des paramtres introduits avec le nouveau
neurone (Salem and Khel, 2014d).
120
(1.8j )N x
< p .
N
P
Nx
(1.8j )
(5.13)
j=1
3 Approche GAP-EKF-Floue pour la commande sliding mode des systmes non linaires
Dans cette section, une architecture fonde sur l'intelligence computationelle est propose pour la commande sliding mode des systmes non linaires. Cette architecture est
base sur l'utilisation des rseaux de neurones RBF (avec apprentissage en ligne par
GAP-EKF) dans l'approximation des paramtres du systme command dans la commande quivalente et de rduire l'eet du chattering en calculant le gain K fur et
mesure pour la commande corrective en utilisant un contrleur ou (Salem and Khel,
2014d).
Le schma global de cette approche est donn dans la Figure 5.2
RBF
GAP-EKF
f(x), g(x)
yd (t)
Commande ue (t)+ P
quivalente
e(t)
u(t)
x(t)
Systme
y(t)
s = e + e
Figure
s
s
uc (t)
121
(5.14)
o (x) est le vecteur des sorties des neurones cachs, a1 et a2 sont les vecteurs correspondants aux deux sorties (Salem and Khel, 2014d).
La commande quivalente de l'quation (1.31) devient :
ue (t) =
i
1 h
f (x) + xd x + x d
g(x)
(5.15)
L'apprentissage par l'algorithme GAP-EKF et l'exploitation du rseau RBF sont est ralis en ligne pendant la commande du systme non linaire (Salem and Khel, 2011).
(5.16)
Pour garder le systme sur la surface, il faut choisir des valeurs de K susamment grandes
mais dans le mme temps, ces grandes valeurs causeront des oscillations hautes frquences sur les deux cots de la surface de glissement. Ce phnomne de chattering peut
endommager le systme.
Au lieu de xer une valeur constante pour K au dbut de la procdure de commande, nous
proposons d'utiliser un contrleur ou pour calculer ce gain. L'avantage de l'utilisation
d'un contrleur ou est que le gain commence avec une valeur leve lorsque le systme
est loin de la surface, cette valeur s'adaptera en fonction de la distance entre le systme
et la surface (Salem and Khel, 2014d).
Degrs d'appartenance
Les fonctions d'appartenance des variables d'entre s et s sont reprsentes dans la Figure 5.3 et la Figure 5.4.
NS
1
0.8
0.6
0.4
0.2
0
1
0.8
Figure
Degrs d'appartenance
PS
ZE
0.6
0.4
0.2
0.2
0.4
0.6
0.8
1 N
0.8
0.6
0.4
0.2
0
5
Figure
0
s
Degrs d'appartenance
1 KS
KB
0.8
0.6
0.4
0.2
0
0
0.5
1.5
2.5
3.5
4.5
K
Figure
@
@
N
Z
P
@
@
NS ZE PS
KM KM KS
KM KS KM
KB KM KB
124
4
2
s
Figure
4
4.1
0
0.40.2
1 0.80.6
0.8 1
0.2 0.4 0.6
i
1 h
f (, ) + d + d Ksign(s).
g(, )
(5.17)
d = 0.2sin( t)
(5.18)
2
d et d sont les vitesses et acclrations dsires. L'quation (5.19) reprsente les per-
(5.19)
Un rseau RBF avec un apprentissage GAP-EKF a t utilis pour calculer les fonctions
et g(, )
, les estimations des fonctions f (, )
et g(, )
. Dans le mme temps, le
f(, )
gain K est calcul par un contrleur ou.
La commande du pendule se droule pendant 10s et chaque pas d'chantillonnage
du simulateur, l'erreur entre la sortie dsire et relle est calcule.
Pour viter des calculs inutiles, l'algorithme GAP-EKF n'est excut que si cette erreur
125
Sorties
f(, )
Seuil d'ajout g1
1.0e 5
Seuil d'ajout g2
1.0e 5
Facteur de chevauchement
15
Seuil de suppression p
1.0e 5
q0
1.5
L'allure de la trajectoire dsire ainsi que la position relle du pendule sont montres
dans la Figure 5.7 et l'erreur de poursuite est dans la Figure 5.8.
L'erreur obtenue est trs acceptable et le pendule converge rapidement vers la trajectoire
dsire avec un temps de rponse infrieur 0.2s malgr l'existence d'un bruit externe et
une altration des paramtres du modle.
Ces rsultats sont obtenus cause de la puissance de l'algorithme d'apprentissage en ligne
et g(, )
avec une erreur l'ordre de
GAP-EKF d'o l'estimation des fonctions f (, )
1e 03 et 1e 06 respectivement (cf. Figure 5.9 et Figure 5.10).
Les pics remarqus chaque deux secondes sur les deux gures montrent l'adaptation
de l'algorithme au changements introduits.
L'volution du nombre des neurones du rseau RBF durant la procdure de la commande est illustre dans la Figure 5.11. Dans la gure, l'algorithme commence avec zro
neurones. L'algorithme a ajout un nouveau neurone 0.2s et un autre 0.4s. Aprs le
pas suivant, le critre d'lagage est vri et le neurone le moins signiant est supprim.
Les entres suivantes ont ncessit l'ajout d'un nouveau neurone et le rseau continue
de fonctionner avec 2 neurones seulement en modiant les paramtres avec le ltre de
Kalman jusqu' 3.4s o le critre d'ajout a t vri et un autre neurone a t ajout.
A la n du procdure de la commande, le rseau a 13 neurones.
Le signal de commande agissant sur le chariot est reprsent dans la Figure 5.12. Nous
pouvons remarquer clairement l'absence des oscillations hautes frquences (Chattering)
contrairement aux rsultats du chapitre 4. Ceci est d au contrleur ou dont la sortie est
reprsente sur la Figure 5.13. Le gain commence avec une valeur de K = 5 et diminue
au cours de la procdure de commande pour suivre une forme sinusodale pour satisfaire
la trajectoire dsire.
126
0.4
Position dsire
0.3
Position relle
0.2
0.1
0
0.1
0.2
0.3
0
Figure
5
Temps(s)
10
0.1
5 102
0
0
10
Temps(s)
Figure
103
0
1
2
0
Temps(s)
Figure
par GAP-EKF-Floue
5.9: Erreur d'estimation de la fonction f (, )
127
10
2
0
2
4
6
8
10
Temps(s)
Nombre de neurones
Figure
par GAP-EKF-Floue
5.10: Erreur d'estimation de la fonction g(, )
10
10
Temps(s)
Figure
Signaal de commande
20
0
20
40
60
Temps(s)
Figure
10
10
Temps(s)
Figure
4.2
Une deuxime application de l'approche propose GAP-EKF-Floue est dans la commande d'un robot manipulateur SCARA de trois degrs de libert dont le modle est
donn en quation (5.20) (Ak and Cansever, 2006b) :
M (q)
q + C(q, q)
q + G(q) + F (q)
= .
(5.20)
o M (q), C(q, q)
sont les matrices d'inertie et des Forces de Coriolis et Centrifuges respectivement. G(q) est le vecteur de gravit , F (q)
est le vecteur des frottement et est le
vecteur des couples agissants sur les articulations. q , q et q sont les vecteurs des positions,
vitesses et acclrations angulaires. Les valeurs de ces matrices pour le robot SCARA sont
prsents en Annexe.
La commande sliding mode d'un robot manipulateur est donne par l'quation (5.21)
(Slotine and Li, 1991) :
= eq + cc .
(5.21)
o la commande quivalente eq est donne par :
(q)
q)
eq = M
qr + C(q,
qr + G(q)
+ F (q).
(5.22)
qr = qd e,
qr = qd e.
(5.23)
o :
avec qd , la trajectoire suivre est reprsente dans l'quation (5.24) :
qd = 1 + sin(t).
129
(5.24)
(5.25)
cc = Ksign(s).
(5.26)
, C,
G,
F sont des estimations de M, C, G et F respectivement (Slotine and Li, 1991).
M
K = diag [K1 , K2 . . . Kn ] est une matrice diagonale dnie positive.
Nous avons appliqu l'approche GAP-RBF-Floue pour la commande sliding mode du robot manipulateur donn en quation (5.20), pour cela, nous avons utilis un rseau RBF
pour estimer la matrice M , un autre pour estimer la matrice C et un troisime pour le
vecteur de frottement F . Les paramtres du vecteur de gravit G sont constantes (cf.
quation (A.8).
Pour tester la robustesse de la commande, le frottement de l'quation (A.10) a t
considr ainsi qu'une incertitude dans la masse de la deuxime articulation m2 avec
m2 = 0.001Kg .
Les paramtres de la commande sliding mode GAP-RBF-Floue sont prsents dans la
Table 5.3.
Les erreurs d'estimation des trois matrices sont illustres dans la Figure 5.14, Figure 5.15 et Figure 5.16 tandis que Figure 5.17 et Figure 5.18 reprsentent les positions
des articulations et les erreurs de poursuite respectivement.
Les trois rseaux RBF ont approxim les trois composantes du modle dynamique avec
exactitude produisant une erreur d'estimation infrieure 1e 6 et il est clair que les
articulations convergent vers la trajectoire dsire avec une erreur statique presque nulle
malgr les perturbations externes et les incertitudes dans le modle.
Les couples agissants sur les trois articulations sont reprsents dans la Figure 5.19 et la
sortie du contrleur ou est dans la Figure 5.20. Le phnomne du chattering est compltement limin comme le montre la Figure 5.19 cause de la bonne estimation du modle
et l'inuence du contrleur ou qui calcule chaque instant le gain adquat.
Pour montrer l'ecacit de l'algorithme d'apprentissage, nous avons rsum les moyennes
des erreurs d'apprentissage pour les trois rseaux et ceci chaque deux secondes. Les rsultats sont prsents dans la Table 5.4.
Nous pouvons remarquer que les 3 rseaux vont apprendre le modle fur et mesure
que le temps d'utilisation des rseaux passe. En eet, pour chaque donne en plus, l'architecture des rseaux s'amliore et leurs performances augmentent.
130
Paramtre
RBFM RBFC
RBFF
Entres
q
q, q
q
Nombre des entres
3
9
3
Sorties
M
C
F
Nombre des sorties
3
3
3
Seuil d'ajout g1
1.0e 6 1.0e 6 1.0e 5
Seuil d'ajout g2
1.0e 5 1.0e 5 1.0e 5
Facteur de chevauchement
15
10
15
Seuil de suppression p
1.0e 5 1.0e 5 1.0e 5
q0
1.5
0.9
1.1
105
M(1,1)
M(1,2)
M(2,2)
6
4
2
0
2
0.5
Figure
1.5
2.5
3.5
4.5
106
1
0.5
0
C(1,1)
C(1,2)
C(2;2)
0.5
1
1.5
0.5
Figure
1.5
2.5
3.5
4.5
131
1
0.5
0
F(1)
F(2)
F(3)
0.5
1
Figure
0.5
1.5
2.5
3.5
4.5
Positions (Rad)
Consigne
Articulation 1
Articulation 2
Articulation 3
0.5
0
0
0.5
1.5
2.5
3.5
4.5
Temps(s)
Figure
Erreur (rad)
Articulation 1
Articulation 2
Articulation 3
0.5
1
0
0.5
1.5
2.5
3.5
4.5
Temps(s)
Figure
5 Conclusion
Dans ce chapitre, nous avons prsent un algorithme d'apprentissage en ligne des
rseaux de neurones RBF pour l'approximation des fonctions du modle d'un systme
non linaire.
132
Sgnal de commande
600
Articulation 1
Articulation 2
Articulation 3
400
200
0
0
0.5
1.5
2.5
3.5
4.5
Temps(s)
Figure
Gains K
Articulation 1
Articulation 2
Articulation 3
200
400
600
0.5
1.5
2.5
3.5
4.5
Temps (s)
Figure
Table
Secondes
1-2
3-4
5-6
7-8
9-10
Sans bruit
RBFM
5.41e-6
6.27e-8
2.49e-8
1.56e-8
2.85e-8
RBFC
4.53e-7
4.45e-8
7.92e-8
3.33e-8
9.74e-8
Avec bruit
RBFF
1.16e-16
2.22e-17
8.88e-17
3.05e-17
8.72e-17
133
RBFM
2.62e-5
3.54e-7
4.02e-7
8.23e-7
5.14e-7
RBFC
9.21e-6
6.55e-8
8.22e-8
5.36e-8
1.94e-8
RBFF
3.88e-15
3.29e-16
1.24e-16
5.86e-16
2.11e-16
CCCA11 pour la conception de l'approche sliding mode GAP-EKF base sur les
rseaux RBF avec un apprentissage en ligne avec l'algorithme GAP-EKF et son
application sur un pendule invers.
134
Conclusion gnrale
La commande sliding mode est une commande robuste largement utilise dans l'industrie pour commander les systmes non linaires. Ces systmes prsentent souvent des
incertitudes dans leurs modles.
La commande sliding mode est compose de deux parties, la commande quivalente
utilise le modle dynamique du systme pour le ramener vers une surface de glissement,
et la commande corrective (commutative) pour garder le systme sur la surface.
La commande sliding mode soure de deux limitations majeures, la dpendance du
modle dynamique et le phnomne des oscillations hautes frquences (chattering).
Les techniques de l'intelligence computationnelle constituent des solutions possibles
ces limites. Ces techniques comportent les rseaux de neurones, la logique oue et les
algorithmes volutionnaires parmi d'autres.
La prsente thse a t ddie la rsolution des limites de la commande sliding mode
par l'application des rseaux de neurones fonctions bases radiales (RBF) et la logique
oue.
En eet, les rseaux de neurones RBF par leurs qualits d'adaptation et d'approximation sont un outil performant pour estimer les paramtres du modle du systme command. Ces performances dpendent essentiellement de la qualit de l'algorithme d'apprentissage utilis.
En premier lieu, nous avons essay de dvelopper un algorithme d'apprentissage hors
ligne en utilisant les algorithmes volutionnaires.
L'espace de recherche des paramtres d'un rseau de neurones RBF (poids, centres et
largeurs) est vaste et limit seulement par la capacit de calcul, ceci conduit forcement
l'algorithme d'apprentissage tre pig dans un ou plusieurs minima locaux. Ayant cela
comme problmatique secondaire, nous avons amlior deux algorithmes d'optimisation
an d'accrotre leurs eet de diversication : la colonie d'abeilles articielles (ABC) et
l'optimisation base sur la biogographie (BBO). L'ide tait de les hybrider avec le modle
prdateur et proies amlior.
Les algorithmes obtenus (PMBBO et ABC-PP) ont t valids par une analyse statistique via des tests non-paramtriques et compars pour choisir le meilleur entre eux an
de s'en servir pour l'apprentissage des rseaux de neurones RBF.
Du fait que l'algorithme ABC-PP est sorti du lot en tant class premier dans l'analyse
135
Conclusion gnrale
statistique, il a t appliqu pour l'apprentissage hors ligne d'un rseau de neurones pour
estimer les paramtres d'un pendule invers dans le cadre d'une commande sliding mode.
Les rsultats obtenus sont satisfaisants mais lorsque la commande sliding mode utilisant le rseau RBF a t soumise un test de robustesse en simulant des perturbations
externes et une altration du modle, les rsultats de la commande ont rapidement dtriors.
La deuxime solution est d'avoir recours un algorithme d'apprentissage en ligne,
dans ce contexte, nous avons prsent l'algorithme GAP-EKF qui est un algorithme en
ligne bas sur deux stratgies, une stratgie GAP (Growing And Pruning) et un ltre de
Kalman tendu. Il procde l'apprentissage d'un rseau en commenant avec 0 neurones
et il ne ncessite pas la disponibilit de la totalit de la base d'apprentissage. A chaque
couple entre/sortie prsent, l'algorithme dcide d'ajouter un nouveau neurone selon un
critre de distance, si ce critre n'est pas vri, les paramtres du rseau sont modis
par un ltre de Kalman tendu.
L'algorithme GAP-EKF a t utilis pour concevoir une approche de commande sliding
mode base sur les techniques de l'intelligence computationnelle. L'approche GAP-EKFFloue est compose de deux parties :
1)- Un rseau de neurones RBF avec apprentissage en ligne (GAP-EKF) pour calculer
la commande quivalente en estimant en ligne les paramtres du modle et compenser les
incertitudes et les variations du modle.
2)- Un contrleur ou pour calculer la commande corrective an d'liminer le phnomne de chattering, ce contrleur a comme entres la surface et sa drive et sa sortie est
la valeur du gain. Nous avons tudi la robustesse de la commande sliding mode obtenue
sur un pendule invers et ensuite sur un robot manipulateur de type SCARA. Les rsultats de simulation ont montr un comportement satisfaisant pour les deux systmes en
prsence de bruits et incertitudes.
Cette thse a prsent trois nouveaux algorithmes, deux algorithmes d'optimisation et
un algorithme d'apprentissage en ligne.
Les algorithmes PMBBO et ABC-PP sont de puissants algorithmes d'optimisation,
surtout ABC-PP qui a prouv ses performances travers des tests statistiques non
paramtriques et bien qu'il ait montr des limites dans notre problme (Application
des rseaux RBF pour la commande sliding mode des systmes non linaire), il a
donn de bons rsultats dans d'autres problmes d'optimisation et ses limites sont
surtout dues aux proprits des systmes non linaires et non l'algorithme luimme.
L'algorithme ABC-PP pourrait bien tre utilis pour l'optimisation du contrleur
ou savoir, le nombre et les paramtres des fonctions d'appartenance des variables
oues.
L'algorithme GAP-EKF qui est un algorithme d'apprentissage en ligne des rseaux
136
Conclusion gnrale
de neurones RBF, cet algorithme est caractris par :
1. La notion d'inuence d'un neurone a un rle important dans la slection du
neurone ajouter ou supprimer, elle permet de rduire la complexit de calcul
pour le rendre plus simple.
2. Quand aucun neurone cach n'est ajout, seuls les paramtres du plus proche
neurone doivent tre ajusts, ce qui rduit le temps de calcul global et rend
l'apprentissage plus rapide, Cette dernire un grand avantage dans les applications o un grand nombre de neurones cachs est ncessaire.
3. Le rseau RBF commence par un nombre de neurone nul, ceci nous vite de
rsoudre un autre problme dans l'apprentissage des rseaux de neurones RBF
o le nombre des neurones cachs doit tre dtermin empiriquement ce qui
inue sur les performances de n'importe quel algorithme d'apprentissage.
4. L'ide d'ajouter et supprimer des neurones selon le besoin rduit vraisemblablement le temps de calcul surtout dans la phase de modication des paramtres
par le ltre de Kalman tendu (EKF) o des matrices de grandes dimensions
sont manipules.
L'algorithme GAP-EKF est utile pour les applications ncessitant des estimations
en temps rel, il sut juste de xer ses paramtres.
Nous pouvons rsumer les rsultats obtenus dans cette thse par les productions suivantes :
137
Conclusion gnrale
Figure
138
Bibliographie
Abraham, A. (2001). Neuro fuzzy systems : State-of-the-art modeling techniques. Master's
thesis, School of Computing & Information Technology, University Monash, Australia.
Ak, A. G. and Cansever, G. (2006a). Adaptive neural network based fuzzy sliding mode
control of robot manipulator. In IEEE Conference on Cybernetics and Intelligent Systems, volume 144, pages 16, Bangkok.
Ak, A. G. and Cansever, G. (2006b). Fuzzy sliding mode controlller with RBF networks
for robotic manipulator trajectory tracking. Lecture notes in control and information
sciences (Intelligent Control and Automation ), 144 :527532.
Belew, R., McInerney, J., and Schraudolph, N. (1991). Evolving networks : Using the genetic algorithm with connectionist learning. In Proc. Second Articial Life Conference,
pages 511547, New York.
Berbaoui, B., Benachaiba, C., Rahli, M., and Tedjini, H. (2011). An ecient algorithm
to tuning PI-controller parameters for shunt active power lter using ant colony optimization. PRZEGLAD ELEKTROTECHNICZNY (Electrical Review), 6 :140145.
Beyhan, S. and Alci, M. (2009). A new rbf network based sliding-mode control of nonlinear systems. In International Multiconference on Computer Science and Information
Technology, pages 1116.
Cant-Paz, E. and Kamath, C. (2005). An empirical comparison of combinations of evolutionary algorithms and neural networks for classication problems. IEEE Transactions
on Systems Man and Cybernetics Part B (Cybernetics), 35(5) :915927.
Carani, F., Neri, F., Cheng, J., Zhang, G., Picinali, L., Iacca, G., and Mininno, E.
(2013). Super-t multicriteria adaptive dierential evolution. In IEEE Congress on
Evolutionary Computation, CEC 2013, pages 16781685, Cancun, Mexico.
Castro, L. D. and von Zuben, F. (2001). An immunological approach to initialize centers
of radial basis function neural networks. In Proceedings of Brazilian Conference on
Neural Networks, pages 7984, Rio de Janeiro, Brazil.
139
Bibliographie
Caudell, T. P. and Dolan, C. P. (1989). Parametric connectivity : Training of constrained
networks using genetic algorithms. In Proceedings of the 3rd International Conference
on Genetic Algorithms, pages 370374.
Chen, C. S. and Chen, W. L. (1998). Robust adaptive sliding-mode control using fuzzy
modeling for an inverted-pendulum system. IEEE Transaction on Industrial Electronics, 45 :297306.
Chen, H. and Wo, S. (2013). Rbf neural network of sliding mode control for time-varying
2-dof parallel manipulator system. Mathematical Problems in Engineering, 2013 :110.
Choi, S. B. and Kim, M. S. (1997). New discrete time fuzzy sliding mode control with
application to smart structures. Journal of Guidance Control and Dynamics, 20(5) :857
864.
Conover, W. (1999). Practical nonparametric statistics. John Wiley & Sons, New York.
Crepinsek, M., Liu, S.-H., and Mernik, M. (2013). Exploration and exploitation in evolutionary algorithms : A survey. ACM Computing Surveys, 45(3) :35 :133.
Cybenko, G. (1989). Approximation by superposition of sigmoidale functions. Mathematics of of Control Signal and Systems, 2 :303314.
da Mota, J. F., Siqueira, P., de Souza, L., and Vitor, A. (2012). Training radial basis
function networks by genetic algorithms. In Proceedings of the 4th International Conference on Agents and Articial Intelligence (ICAART 2012), pages 373379, Vilamoura,
Algarve, Portugal.
Derrac, J., Garcia, S., Molina, D., and Herrera, F. (2011). A practical tutorial on the
use of nonparametric statistical tests as a methodology for comparing evolutionary and
swarm intelligence algorithms. Swarm and Evolutionary Computation, 1 :318.
Digalakis, J. G. and Margarits, K. G. (2000). On benchmarking functions for genetic
algorithms. International Journal of Computer Mathematics, 00 :127.
Doksum, K. (1967). Robust procedures for some linear models with one observation per
cell. Annals of Mathematical Statistics, 38 :878883.
Dunn, O. (1961). Multiple comparisons among means. Journal of the American Statistical
Association, 56 :5264.
Eberhart, R., Shi, Y., and Kennedy, J. (2001). Swarm Intelligence. Morgan Kaufmann.
Elsayed, S. M. M., Sarker, R., and Essam, D. L. (2013). A genetic algorithm for solving
the CEC2013 competition problems on real-parameter optimization. In IEEE Congress
on Evolutionary Computation, CEC 2013, pages 356360, Cancun, Mexico.
140
Bibliographie
Engelbrecht, A. (2003). Computational Intelligence : An Introduction. Wiley.
Erbatur, K., Kaynak, O., Sabanovic, A., and Rudas, I. (1996). Fuzzy adaptive sliding
mode control of a direct drive robot. Robotics and Autonomous Systems, 19(2) :215
227.
Ertugrul, M. and Kaynak, O. (2000). Neuro sliding mode control of robotic manipulators.
Mechatronics, 10(1-2) :243267.
Fateh, M., Ahmadi, S., and Khorashadizadeh, S. (2014). Adaptive rbf network control for
robot manipulators. Journal of AI and Data Mining, 2 :In print.
Fei, J. and Wang, Z. (2013). Adaptive neural sliding mode control of active power lter.
Journal of Applied Mathematics, 2013 :18.
Finner, H. (1993). On a monotonicity problem in step-down multiple test procedures.
Journal of the American Statistical Association, 88 :920923.
Friedman, M. (1937). The use of ranks to avoid the assumption of normality implicit in
the analysis of variance. Journal of the American Statistical Association, 32 :674701.
Garcia, S., Fernndez, A., Luengo, J., and Herrera, F. (2010). Advanced nonparametric
tests for multiple comparisons in the design of experiments in computational intelligence
and data mining : Experimental analysis of power. Information Sciences, 180 :2044
2064.
Garcia, S., Molina, D., M.Lozano, and Herrera, F. (2009). A study on the use of nonparametric tests for analyzing the evolutionary algorithms behaviour a case study on
the cec2005 special session on real parameter optimization. Journal of Heuristics, 156 :617644.
GirirajKumar, S., Jayaraj, D., and Kishan, A. (2010). PSO based tuning of a PID
controller for a high performance drilling machine. International Journal of Computer
Applications, 1(19) :1218.
Gozde, H., Taplamacioglu, M. C., and Kocaarslan, I. (2010). Applications of articial
bees colony algorithm in an automatic voltage regulator (AVR) system. International
Journal on Technical and Physical Problems of Engineering (IJTPE), 2(3) :8892.
Ha, Q. P. (1996). Robust sliding mode controller with fuzzy tuning. Electron Letters,
32(17) :16261628.
Ha, Q. P. (1997). Sliding performance enhancement with fuzzy tuning. Electron Letters,
33(16) :14211423.
141
Bibliographie
Hagan, T. M., Demuth, H., and Beale, M. (1995). Neural network design. Ed PWS
publishing company.
Hancock, P. (1992). Genetic algorithms and permutation problems : A comparison of
recombination operators for neural net structure specication. In Proceedings of the
Third International Workshop on Combinations Genetic Algorithms Neural Networks,
pages 108122.
Haykin, S. (1999). Neural Networks : A Comprehensive Foundation. Upper Saddle River,
N.J. Prentice Hall, 2nd edition edition.
Hochberg, Y. (1988). A sharper bonferroni procedure for multiple tests of signicance.
Biometrika, 75 :800803.
Hodges, J. and Lehmann, E. (1962). Ranks methods for combination of independent
experiments in analysis of variance. Annals of Mathematical Statistics, 33 :482497.
Hoerl, A. (1962). Application of ridge analysis to regression problems. Chemical Engineering Progress, 58 :5459.
Holland, M. (1987). An improved sequentially rejective bonferroni test procedure. Biometrics, 43 :417423.
Holm, S. (1979). A simple sequentially rejective multiple test procedure. Scandinavian
Journal of Statistics, 6 :6570.
Hommel, G. (1988). A stagewise rejective multiple test procedure based on a modied
bonferroni test. Biometrika, 75 :383386.
Hornik, K. (1991). Approximation capabilities of multilayer feedforward networks. Neural
Networks, 4 :251257.
Hu, S. and Lu, M. (2012). Neural fuzzy sliding mode control for a robot manipulator.
In International Conference on Mechanical Engineering and Automation Advances in
Biomedical Engineering.
Huang, G., Saratchandran, P., and Sundararajan, N. (2004). An ecient sequential learning algorithm for growing and pruning RBF (GAP-RBF) networks. IEEE Transaction on systems , Man , and Cybernitics Part B : Cybercnitics, 34(6) :22842292.
Huang, G., Saratchandran, P., and Sundararajan, N. (2005). A generalized growing and
pruning RBF (GGAP-RBF) neural network for function approximation. IEEE transaction on Neural Networks, 16(1) :5767.
Hwang, G. C. and Lin, S. C. (1992). A stability approach to fuzzy control design Fuzzy
Sets Systems, 48(3) :279287.
142
Bibliographie
Iman, R. L. and Davenport, J. M. (1980). Approximations of the critical region of the
friedman statistic. Communications in Statistics - Theory and Methods, 9(6) :871595.
Jezernik, K., Rodic, M., Safaric, R., and Curk, B. (1997). Neural network sliding mode
robot control. Robotica, 15 :2330.
Jiao, B. and Wang, L. (2010). Rbf neural network sliding mode control for variable-speed
adjustable-pitch system of wind turbine. In International Conference on Electrical and
Control Engineering,, pages 3998 4002, Wuhan, China.
Jog, P., Suh, J., and Gucht, G. (1991). Parallel genetic algorithms applied to the traveling
salesman problem. SIAM Journal on Optimization, 1(4) :515529.
Johnson, M. A. and Moradi, M. H. (2005). PID Controllers :New Identication and
Design Methods. Springer.
Kadirkamanathan, V. and Niranjan, M. (1993). A function estimation approach to sequential learning with neural networks. Neural Computation, 5 :954975.
Karaboga, D. (2005). An idea based on honey bee swarm for numerical optimization.
Technical report tr06, Erciyes University, Engineering Faculty, Computer Engineering
Department.
Karaboga, D., Akay, B., and Ozturk, C. (2007). Articial bee colony (ABC) optimization
algorithm for training feed-forward neural networks. Modeling Decisions for Articial
Intelligence ( LNCS), 46(17) :318329.
Karakasoglu, A. and Sundareshan, M. K. (1995). A recurrent neural networkbased adaptive variable structure model-following control of robotic manipulators. Automatica,
31(10) :14951507.
Kartalopoulos, S. V. (2004). Understanding Neural Networks and Fuzzy Logic : Basic
Concepts and Applications. IEEE Press - PHI.
Khalil, S. (2003). Inverted pendulum analysis, design and implementation. Technical
report, The Instrumentation and Control Lab at the Institute of Industrial Electronics
Engineering, Pakistan.
Kim, H. G. and Oh, S. Y. (1995). Locally activated neural networks and stable neural controller design for nonlinear dynamic systems. International Journal of Neural
Systems, 6(1) :91106.
Kim, J. S. (2008). Auto tuning PID controller based on improved genetic algorithm for
reverse osmosis plant. In Proceedings of the World Academy of Science and Engineering.
143
Bibliographie
Kitano, H. (1990). Empirical studies on the speed of convergence of neural network
training using genetic algorithms. In Proceedings of the Eighth National Conference on
Articial Intelligence, pages 789795.
Klir, G. and Yuan, B. (1995). Fuzzy Sets and Fuzzy Logic Theory and Applications.
Prentice Hill PTR, Upper Saddle River, NJ, USA.
Kusiak, A. (2000). Computational Intelligence in Design and Manufacturing. WileyInterscience.
Lahoty, P. and Parmar, G. (2013). A comparative study of tuning of PID controller using
evolutionary algorithms. International Journal of Emerging Technology and Advanced
Engineering, 3(1) :640644.
Leung, F., Lam, Ling, S., and Tam, P. (2003). Tuning of the structure and parameters of
a neural network using an improved genetic algorithm. IEEE Transactions on Neural
Networks, 14(1) :7988.
Levene, H. (1960). In contributions to probability and statistics. Essays in Honor of
Harold Hotelling, pages 278292.
Lewis, F., Abdallah, C. T., and Dawson, D. M. (1993). Control of Robot Manipulators.
Macmillan Publishing Company, Inc, USA.
Li, J. (2008). A two-step rejection procedure for testing multiple hypotheses. Journal of
Statistical Planning and Inference, 138 :15211527.
Li, Y., Luo, Y., Zhao, Z., and Li, J. (2007). Internal model control of pm synchronous
motor based on rbf network optimized by genetic algorithm. In IEEE International
Conference on Control and Automation ICCA 2007., Guangzhou, China.
Li, Y., Ng, K. C., MurraySmith, D. J., Gray, G. J., and Sharman, K. C. (1996). Genetic algorithm automated approach to the design of sliding mode control systems.
International Journal of Control, 63(4) :721739.
Li, Y., Sundararajan, N., and Saratchandran, P. (2000). Analysis of minimal radial basis
function network algorithm for real-time identication of nonlinear dynamic systems. In
Control Theory and Applications, IEEE Proceedings, volume 147(4), pages 476484.
Liang, J., Qu, B., Suganthan, P., and Diaz, G. H. (2013). Problem denitions and evaluation criteria for the CEC2013 special session and competition on real parameter
optimization, technical report. Technical Report 201212, Computational Intelligence
Laboratory, Zhengzhou University, Zhengzhou China.
144
Bibliographie
Liao, T. and Stutzle, T. (2013). Benchmark results for a simple hybrid algorithm on
the CEC2013 benchmark set for real-parameter optimization. In IEEE Congress on
Evolutionary Computation, CEC 2013, pages 19381944, Cancun, Mexico.
Lin, S. C. and Chen, Y. Y. (1997). Design of self-learning fuzzy sliding mode controllers
based on genetic algorithms. Fuzzy Sets Systems, 86(2) :139153.
Liu, Y., Zheng, Q., Shi, Z., and Chen, J. (2004). Training radial basis function networks
with particle swarms. Advances in Neural Networks ISNN 2004 LNCS, 3171 :317322.
Ma, H. and Simon, D. (2011). Blended biogeography-based optimization for constrained
optimization. Engineering Applications of Articial Intelligence, 220 :517525.
Ma, H., Simon, D., Fei, M., and Xie, Z. (2013). Variations of biogeography-based optimization and markov analysis. Information Sciences, 220 :492506.
Macarthur, R. and Wilson, E. (1967). The Theory of Biogeography. Princeton, NJ :
Princeton Univ. Press.
Mahajan, R. and Kaur, G. (2013). Neural networks using genetic algorithms. International
Journal of Computer Applications, 77(14) :611.
Mamdani, E. H. and Assilian, S. (1975). An experiment in linguistic synthesis with a
fuzzy logic controller. International Journal of Man-machine Studies, 7 :113.
Marshall, S. J. and Harrison, R. F. (1991). Optimization and training of feedforward
neural networks by genetic algorithms. In Proc. Second Int. Conferencee on Artical
Neural Networks Genetic Algorithms, pages 3943.
McCulloch, W. S. and Pitts, W. (1943). A logical calculus of the ideas immanent in
nervous activity. Bulletin of Mathematical Biophysics, 5 :115133.
Miller, B. L. and Goldberg, D. E. (1995). Genetic algorithms, tournament selection and
the eects of noise. Complex System, 9(3) :193212.
Miller, G. F., Todd, P. M., and Hegde, S. U. (1989). Designing neural networks using
genetic algorithms. In Proc. Third Int. Conf. Genetic Algorithms, pages 379384.
Mitchell, M. (1998). An Introduction to Genetic Algorithms. Prentice-Hall.
Moody, J. and Darken, C. (1995). Fast learning in network of locally-tuned processing
units. Neural Computation, 1 :606623.
Nagaraj, B. and Vijayakumar, P. (2011). A comparative study of pid controller tuning
using ga, ep, pso and aco. Journal of Automation, Mobile Robotics & Intelligent Systems, 5(2) :4248.
145
Bibliographie
Nandy, S., Sarkar, P. P., and Das, A. (2012). Traaining a feedforward neural network
with articial bees colony based backpropagation method. International Journal of
Computer Science & Information Technology (IJCSIT), 4(4) :3346.
Nepomuceno, F. V. . and Engelbrecht, A. (2013). A self-adaptive heterogeneous pso
for real-parameter optimization. In IEEE Congress on Evolutionary Computation,
CEC2013, pages 361368, Cancun, Mexico.
Orr, M. J. L. (1995). Regularization in the selection of radial basis function centers.
Neural Computation, 7 :606623.
Paschos, V. T. (2005). Optimisation combinatoire : concepts fondamentaux. Hermes
science publication.
Psaltis, D., Sideris, A., and Yamamura, A. A. (1988). A multilayered neural network
controller. IEEE Control Systems Magazine, 8 :1721.
PugaGuzman, S., MorenoValenzuela, J., and Santibanez, V. (2014). Adaptive neural
network motion control of manipulators with experimental evaluations. Scientic World
Journal, 2014 :113.
Qasem, S. and Shamsuddin, S. (2009). Improving performance of radial basis function
network based with particle swarm optimization. In Evolutionary Computation. CEC09.
IEEE Congress on, pages 31493156.
Quade, D. (1979). Using weighted rankings in the analysis of complete blocks with additive
block eects. Journal of the American Statistical Association, 74 :680683.
Radclie, N. J. (1990). Genetic neural networks on MIMD computers. PhD thesis, University of Edinburgh, Scotland.
Rajasekaran, S. and Pai, G. A. V. (2003). Neural Networks, Fuzzy Logic and Genetic
Algorithms : Synthesis and Applications. PHI.
Rom, D. (1990). A sequentially rejective test procedure based on a modied bonferroni
inequality. Biometrika, 77 :663665.
Rong, H., Sundararajan, N., Huang, G., and Saratchandran, P. (2006). Sequential adaptive
fuzzy inference system (SAFIS) for nonlinear system identication and prediction. Fuzzy
Sets and Systems, 157-9 :12601275.
Rossomando, F. G., Soria, C., and Carelli, R. (2013). Sliding mode neuro adaptive control
in trajectory tracking for mobile robots. Journal of Intelligent & Robotic Systems, 74(34) :931944.
146
Bibliographie
Ruijun, D. (2009). Dierential evolution versus particle swarm optimization for PID
controller design. In Fifth International Conference on Natural Computation, ICNC
'09.
Sabanovic, A., Jezernik, K., and Rodic, M. (1996). Neural network application in sliding
mode control systems. In IEEE International Workshop on Variable Structure Systems
(VSS 96), pages 143147, Tokyo, Japan.
Salahshoor, K. and Jafari, M. R. (2007). On-line identication of non-linear systems using
adaptive RBF-based neural networks. International Journal of Information Science and
Management (IJISM), 5(2) :99121.
Salem, M. and Khel, M. F. (2011). RBF based sliding mode control for robot manipulators. In International Conference on Communications, Computing and Control
Applications (CCCA 2011), Hammamet, Tunisia.
Salem, M. and Khel, M. F. (2012). Application of biogeography based optimization in
tuning a PID controller for nonlinear systems. In In : IEEE International Conference
on Complex Systems (ICCS), Agadir , Morocco.
Salem, M. and Khel, M. F. (2013). Nonlinear inverted pendulum PID control by an
improved articial bees colony-predator and prey approach. In 3rd International Conference on Systems and Control ICSC13, Algiers, Algeria.
Salem, M. and Khel, M. F. (2014a). An enhanced swarm inteligence based training
algorithm for RBF neuraal networks in function approximation. In The 2nd World
Conference on Complex Systems, In press.
Salem, M. and Khel, M. F. (2014b). Optimization of nonlinear controller with an enhanced biogeography approach. An International Journal of Optimization and Control :
Theories & Applications, 4(2) :7787.
Salem, M. and Khel, M. F. (2014c). Predator and prey modied biogeography based
optimization approach (PMBBO) in tuning a PID controller for nonlinear systems.
International Journal of Intelligent Systems and Applications(IJISA), 6(11) :1220.
Salem, M. and Khel, M. F. (2014d). Sequential adaptive RBF-fuzzy variable structure
control applied to robotics systems. International Journal of Intelligent Systems and
Applications, 6(10) :1929.
Sayed, M. M., Saad, M. S., Emara, H. M., and El-Zahab, A. E. E. (2012). A novel method
for PID tuning using a modied biogeography-based optimization algorithm. In 24th
Chinese Control and Decision Conference (CCDC), Taiyuan , China.
147
Bibliographie
Seeley, T. (1995). The wisdom of the hive. Harvard University Press, Cambridge.
Shaei, S. E. (2010). Sliding mode control of robot manipulators via intelligent approaches.
In Advances strategies for Robots manipulators, pages 135172. Sciyo.
Shapiro, S. S. and Wilk, M. B. (1965). An analysis of variance test for normality (complete
samples). Biometrika, 52(3,4) :591611.
Sheskin, D. (2006). Handbook of Parametric and Nonparametric Statistical Procedures.
Chapman & Hall CRC, 4th edition.
Shi, X., Zhao, H., and Chen, J. (2012). Advances in Computer Science and Information
Engineering, chapter Terminal Sliding Mode Control for STT Missile Based on RBF
Neural Network, pages 4954. Springer Berlin Heidelberg.
Si, T., Hazra, S., and Jana, N. D. (2012). Articial neural network training using differential evolutionary algorithm for classication. In Proceedings of the International
Bibliographie
Sundareswaran, K. (2008). D.C. motor speed controller design through a colony of honey
bees. In TENCON (IEEE Region) conference, pages 16.
Tai, N. and Ahn, K. (2010). A rbf neural network sliding mode controller for sma actuator.
International Journal of Control, Automation, and Systems, 8(6) :12961305.
Takagi, T. and Sugeno, M. (1985). Fuzzy identication of systems and its applications to
modeling and control. IEEE Trans. Systems, 15 :116132.
Tereshko, V. (2000). Reaction-diusion model of a honeybee colonys foraging behaviour.
Parallel Problem Solving from Nature PPSN VI (LNCS), 1917 :807816.
Thierens, D., Suykens, J., Vandewalle, J., and Moor, B. D. (1991). Genetic weight optimization of a feedforward neural network controller. In Proceedings of the Conference
on Neural Nets and Genetic Algorithms. 1991, pp. 658-663, Springer Verlag., pages
658663.
Verhoeven, M. and Aarts, E. (1995). Parallel local search. Journal of Heuristics, 1(1) :43
65.
Wang, X. (1994). Adaptive Fuzzy Systems and Control. NJ :Prentice-Hall Englewood
Clis.
Widrow, B. and Lehr, M. A. (1990). 30 years of adaptive neural networks : Perceptrons,
madeline and backpropagation. Proceedings of the IEEE, 78(9) :14151442.
Wolpert, H. D. and Macready, W. (1997). No free lunch theorems for optimization. IEEE
Transactions on evolutionary computation, 1(1) :6782.
Xia, G. and Wu, H. (2013). Advances in Swarm Intelligence, chapter Network-Based
Neural Adaptive Sliding Mode Controller for the Ship Steering Problem, pages 497
505. Springer Berlin Heidelberg.
Yeremia, H., Yuwono, N. A., Raymond, P., and W.Budiharto (2013). Genetic algorithms
and neural networks for optical character recognition. Journal of Computer Science, 9
(11) : :14351442.
Yin, F., Wang, J., and Guo, C. (2004). Design of PID controllers using genetic algorithms approach for low damping slow response plants. Advances in Neural Networks,
3174 :219220.
Yoo, B. and Ham, W. (1998). Adaptive fuzzy sliding mode control of nonlinear system.
IEEE Transactions on Fuzzy Systems, 6 :315321.
149
Bibliographie
Youxin, L. and Xiaoyi, C. (2010). Tuning PID control parameters on hydraulic servo
control system based on dierential evolution algorithm. In 2nd International Conference on Advanced Computer Control (ICACC).
Yu, B. and He, X. (2006). Training radial basis function networks with dierential evolution. In Proceedings of IEEE International Conference on Granular Computing, pages
369372, Atlanta, GA, USA.
Yu, X. H., Man, Z. H., and Wu., B. L. (1998). Design of fuzzy sliding mode control
systems. Fuzzy Sets Systems, 95(3) :295306.
Zadeh, L. (1965). Information and control. Fuzzy Sets, 8 :338353.
Zain, B. A. M., Tokhi, M., and Toha, S. (2009). PID based control of a single-link exible
manipulator in vertical motion with genetic optimisation. In Third UKSim European
Symposium on Computer Modeling and Simulation., Athens, Greece.
Zar, J. (2009). Biostatistical Analysis, volume 3. Prentice Hall.
Zhang, R. (2005). Ecient Sequential and Batch Learning Articial Neural Network
Methods for Classication Problems. PhD thesis, Nanyang Technological University.
Zhang, Y., Li, T., and Yi, J. (2012). Adaptive neural network sliding mode control
based on particle swarm optimization for rotary steering drilling stabilized platform.
International Journal of Advancements in Computing Technology(IJACT), 4(19) :107
114.
150
Annexes
151
Annexe A
Systmes non linaires utiliss
1 Systme masse ressort amortisseur
Le systme masse ressort amortisseur (cf. Figure A.1) est un systme non linaire
dcrit par l'quation direntielle de deuxime ordre (A.1).
x(t)
b
k
Figure
m
u(t)
b
k
1
1
x + x + x3 u.
(A.1)
m
m
m
m
o m est la masse, u(t) est la force exerc, k est la constante de rigidit du ressort et
b : le coecient d'amortisseur. avec m = 1kg , b = 10N s/m,k = 20N/m.
x =
2 Pendule invers
Le pendule invers est un systme form d'une tige monte en inverse sur un chariot
mobile ; Il est un systme non linaire de second ordre dont le modle est donne par
vecteur d'tat, d(t) est le vecteur des perturbations
l'quation (A.2) avec x(t) = [, ]
externes et u(t) le vecteur de commande (Khalil, 2003).
Le systme pendule invers modliser est reprsent par la Figure A.2.
152
mc
Figure
u(t)
En exerant une force horizontale u(t) sur le chariot, celui-ci se dplace en translation
de x mtres et provoque une dviation du pendule de radians.
(A.2)
o :
gsin ml2 cos sin /(mc + m)
=
l(4/3 mcos2 /(mc + m))
+
cos x1 /(mc + m)
u(t) + d(t). (A.3)
l(4/3 mcos2 /(mc + m))
3 Robots manipulateurs
Un robot est un systme mcanique multi-articul m par des actionneurs et destin
eectuer une grande varit de tches (cf. Figure A.3).
Le modle dynamique d'un robot manipulateur de n degrs de libert est donn par
l'quation (A.4) (Lewis et al., 1993) :
M (q)
q + C(q, q)
q + G(q) + F (q)
=
(A.4)
o q, q,
q sont les vecteurs des position, des vitesses et acclrations angulaires respectives,
est le vecteur des couples. M (q) est la matrice d'inertie, elle est symtrique et dnie
positive, C(q, q)
est la matrice de Coriolis/Centrifuges et G(q) est le vecteur de gravit.
F (q)
est le vecteur de frottement.
153
L1
q1
Figure
Dans le cas d'un robot SCARA 3 ddl , les matrices du modle sont donns par
l'quation (A.5) (Ak and Cansever, 2006b) :
M (q)
q + C(q, q)
q + G(q) + F (q)
= .
(A.5)
avec :
M (q) =
M =0
13
G1 = 0
G(q) =
G2 = 0
G3 = 4.9
154
(A.6)
(A.7)
(A.8)
F1 = 12q1 + 0.02sign(q1 )+
3sin(3t)
F = 12q + 0.02sign(q )+
2
2
2
F (q)
=
3sin(3t)
F = 12q + 0.02sign(q )+
3
3
3
3sin(3t)
(A.9)
5sin(2t)
d = 5sin(2t)
5sin(2t)
155
(A.10)