Вы находитесь на странице: 1из 172

Dpartement dInformatique

THESE
Prsente par :

SALEM Mohammed

Pour obtenir le diplme de

DOCTORAT EN SCIENCES
Spcialit :Informatique et Automatique

Thme

Approches de lintelligence
artificielle pour la commande
robuste des systmes non
linaires
Devant les membres du jury :
Prsident :
Rapporteur :
Examinateur :
Examinateur :
Examinateur :
Examinateur :

Pr. B. YAGOUBI
Pr. M.F KHELFI
Pr. Y. LEBBAH
Pr. Z. AHMED FOITIH
Pr. A. LEHIRECHE
Dr. W. NOUIBAT

Professeur, Universit dOran 1 Ahmed Ben Bella


Professeur, Universit dOran 1 Ahmed Ben Bella
Professeur, Universit dOran 1 Ahmed Ben Bella
Professeur, USTO-MB
Professeur, Universit de Sidi-Bel-Abbes
Matre de Confrences A, USTO-MB

2014

thoe

who

emind

thoe

who

are

thoe

who

were
n

me

that

lighting

beside
my

me

and

my
o

and
they

little
my

power

way

through

anguish
...

the

my

when

my

in

felt

doubt

familly

parent

forsaken

and

frustration
still

elieving

confusion

Remerciements
Oh, Voyageur !, les traces de tes pas sont le chemin.
Il ny a pas de chemin, le chemin se fait en marchant.
Ces vers du pote Antonio Machado refltent le mieux laboutissement de cette thse qui ntait quune chimre
qui commenait se concrtiser au passage des annes.
En mettant les dernires retouches sur cet humble travail qui ne constitue quun pas dans un sentier parsem
dembches et dpines, je dois me rappeler des personnes qui ont particip de prs ou de loin pour que ce travail
voit le jour et qui mont soutenu et clair ma lanterne.
Cest avec un grand plaisir que je remercie mon directeur de thse, le Professeur Mohamed Fayal Khelfi.
Merci tout dabord de mavoir accept en thse et ensuite de mavoir encadr pendant toutes ces interminables
annes. Merci aussi pour votre patience, car il ntait pas toujours facile de diriger quelquun dopinitre.Jai
t extrmement sensible ses qualits humaines dcoute et de comprhension tout au long de ce travail.
Toute ma gratitude va au Professeur Belabbes Yagoubi Doyen de la Facult des Sciences Exactes et Appliques de lUniversit dOran pour mavoir fait lhonneur en acceptant de prsider le jury, je lavoue, il continue
de mtonner par sa disponibilit pour tre lcoute depuis que je lai eu comme enseignant.
Je remercie galement le Professeur Yahia Lebbah de lUniversit dOran et Dr Wahid Nouibat de lUSTO
pour lhonneur quils mont fait en acceptant de juger ce modeste travail.
Une mention spciale pour le Professeur Zoubir Ahmed-Fouatih de lUSTO pour ses qualits humaines et
scientifiques, je nai jamais dout quil accepte de juger ce travail.
Je remercie profondment le professeur Ahmed Lehireche de lUniversit de Sidi-Bel-Abbes, que la volont
de Dieu a fait quil tait lun de mes enseignants dans la graduation lUniversit de Sidi-Bel-Abbes, dans le
Magister et aujourdhui en tant lexaminateur de cette thse.
Je suis reconnaissant au Docteur Fatima Debbat de luniversit de Mascara, pour ses conseils toujours
aviss. Je suis par ailleurs toujours impressionn par sa disponibilit incroyable.. . .
Mes remerciements vont galement toute lquipe Geneura de lUniversidad de Granada et en particulier
le Professeur Juan Julian Merelo et Dr Antonio Mora pour le temps quils mont consacr au cours de mon
stage. Surtout, je remercie J.J de mavoir fait profiter de son immense culture et de sa hauteur de vue. Il ma
beaucoup appris surtout pour les tests statistiques.
Pour ne pas sombrer dans la nostalgie, je vais marrter l et prsenter toutes mes excuses aux personnes
que je nai pas mentionnes par leur nom dans ces quelques lignes. . .
Pour conclure, un grand merci ma femme qui a assur le soutien affectif de ce travail doctoral et qui y
croyais toujours mme lorsque jtais au fond du dsespoir. Je ne saurai jamais la remercier !

Rsum
La prsente thse est ddie l'application des techniques de l'intelligence computationnelle an de palier aux limites de la commande sliding mode des systmes non linaires.
En eet, les rseaux de neurones fonctions de bases radiales (RBF) sont utiliss pour
estimer les paramtres du modle dynamique et compenser les incertitudes.
Pour le dveloppement d'un algorithme d'apprentissage des rseaux de neurones
bases radiales (RBF), nous avons opt en premier lieu pour les algorithme volutionnaires en considrant l'apprentissage d'un rseau de neurones RBF comme un problme
d'optimisation.
Pour y parvenir, nous avons amlior deux algorithmes rcents, l'algorithme d'optimisation par colonie d'abeilles articielles (ABC) et l'algorithme de l'optimisation base
sur la biogographie (BBO) en les hybridant avec un modle prdateur et proies (P&P)
modi. Les deux algorithmes obtenus (PMBBO et ABC-PP) ont t valids par des tests
statistiques rvlant ABC-PP comme le meilleur algorithme.
Bien que l'application de l'algorithme ABC-PP pour l'apprentissage des paramtres
d'un pendule invers dans une commande sliding mode ait donn de bons rsultats, elle
n'a pas pu satisfaire le test de robustesse (Perturbations et incertitudes).
Le deuxime algorithme dvelopp est l'algorithme GAP-EKF qui est un algorithme
d'apprentissage en ligne bas sur une stratgie de Growing and Pruning (GAP) pour
contrler le nombre des neurones cachs (gal 0 au dbut) et un ltre de Kalman pour
modier les paramtres du rseau.
L'algorithme GAP-EKF est combin un contrleur ou dans une approche intelligente de commande slidng mode o GAP-EKF est utilis pour calculer la commande
quivalente tandis que la commande corrective est calcule par un contrleur ou.
L'approche propose a t applique pour la commande d'un pendule invers et ensuite
un robot manipulateur SCARA. Les rsultats obtenus sont trs satisfaisants mme en
prsence de perturbations et incertitudes.

Mots cls :
Intelligence computationnelle, Commande sliding mode, Rseaux RBF, Colonie d'abeilles
articielles, Optimisation base sur la biogographie, Commande PID, Prdateurs et
proies, Apprentissage, Optimisation, Contrleur ou.

Abstract
Sliding mode control is a robust control structure for nonlinear systems ; it has two
major drawbacks, the model dependency (mainly in presence of uncertainties and disturbances) and the chattering phenomena. Computational intelligence methods are often
used to solve these problems.
To gure out the problem of model dependency, Radial basis functions neural networks
(RBF) are used to estimate the model parameters but a performing training algorithm is
needed.
In this thesis, we will design rst, an evolutionary based training algorithm. To achieve
that, two optimization algorithms are enhanced ; Biogeography based optimization (BBO)
and Articial Bees Colony (ABC). The considered algorithms are combined with a modied predator and prey model (P&P) to increase their diversication. The obtained
algorithms (PMBBO and ABC-PP) are validated and compared through a statistical
tests set where ABC-PP was the best one.
ABC-PP is used to train RBF neural network to design RBF based sliding mode
controller to control an inverted pendulum giving good results but not in presence of
disturbances.
An online training algorithm (GAP-EKF) is then designed ; it is based on a growing
and pruning strategy to add or delete nodes and an extended Kalman lter (EKF) to
adjust neural network parameters (weights, centers and widths). The online algorithm
is integrated with fuzzy controller to design a Fuzzy-GAP-EKF sliding mode control
where GAP-EKF trained RBF is used to compute equivalent control and compensate
uncertainties while the fuzzy controller outputs the sliding gain value to cancel chattering.
The resulted approach is applied to control an inverted pendulum and SCRA robot
manipulator. The obtained results are remarkable even with external disturbances and
uncertainties.

Keywords :
Learning algorithm, Optimization, RBF Neural networks, Sliding mode control, PID
control, Biogeography based optimization, Articial bees colony, Predator and prey, Fuzzy
logic.

II

Table des matires


Rsum . . . . . . . . . . . . . .
Abstract . . . . . . . . . . . . . .
Table des matires . . . . . . . .
Liste des gures . . . . . . . . . .
Liste des tableaux . . . . . . . . .
Liste des abrviations et symboles

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

Introduction gnrale
1
2
3
4

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Contexte et problmatique . . . . . . . . . . . . . . . . . . . . . . . . . . .
Objectifs et contributions . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Apprentissage des rseaux RBF par les algorithmes volutionnaires
3.2
Apprentissage en ligne des rseaux de neurones RBF . . . . . . . .
Structure de la thse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

I
II
III
VIII
XI
XIII

1
1
2
3
4
5

1 Techniques de l'intelligence computationnelle et ses applications dans la


commande
7
1
2

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rseaux de neurones . . . . . . . . . . . . . . . . . . . . . . .
2.1
Neurone formel . . . . . . . . . . . . . . . . . . . . . .
2.2
Proprits des rseaux de neurones . . . . . . . . . . .
2.2.1
Apprentissage . . . . . . . . . . . . . . . . . .
2.2.2
Approximation parcimonieuse . . . . . . . . .
2.3
tapes de la conception d'un rseau de neurones . . . .
2.3.1
Choix et prparation des chantillons . . . . .
2.3.2
laboration de la structure du rseau . . . . .
2.3.3
Apprentissage du rseau . . . . . . . . . . . .
2.3.4
Validation et Test . . . . . . . . . . . . . . .
2.4
Rseaux de neurones fonctions de bases radiales . . .
2.4.1
Apprentissage des rseaux de neurones RBF .
2.4.2
Algorithmes d'apprentissage des rseaux RBF
Logique oue . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Gnralits sur la logique oue . . . . . . . . . . . . . .
3.1.1
Variables linguistiques et ensembles ous . . .
3.1.2
Sous-ensembles ous . . . . . . . . . . . . . .
3.1.3
Fonction d'appartenance . . . . . . . . . . . .
3.1.4
Base de rgles oues . . . . . . . . . . . . . .
3.2
Systme d'infrence oue . . . . . . . . . . . . . . . . .
3.2.1
Fuzzication . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

7
7
7
8
8
9
10
10
10
10
11
11
12
13
15
15
15
16
16
17
17
18

III

Table des matires

5
6

3.2.2
Infrence oue . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3
Dfuzzication . . . . . . . . . . . . . . . . . . . . . . . .
3.3
Contrleurs ous . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1
Mthode de Mamdani . . . . . . . . . . . . . . . . . . . .
3.3.2
Mthode de Takagi-Sugeno . . . . . . . . . . . . . . . . .
Optimisation et Algorithmes volutionnaires . . . . . . . . . . . . . . . . .
4.1
Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1
Dnition . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2
Problme d'optimisation . . . . . . . . . . . . . . . . . . .
4.2
Mthodes d'optimisation . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1
Mthodes exactes . . . . . . . . . . . . . . . . . . . . . . .
4.2.2
Mthodes approches . . . . . . . . . . . . . . . . . . . . .
4.2.3
Mthodes base de voisinage . . . . . . . . . . . . . . . .
4.2.4
Mthodes base de population . . . . . . . . . . . . . . .
4.2.5
Mthodes hybrides . . . . . . . . . . . . . . . . . . . . . .
Algorithmes volutionnaires . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1
Importance de la diversit . . . . . . . . . . . . . . . . . . . . . . .
5.2
Exploitation et exploration . . . . . . . . . . . . . . . . . . . . . . .
Commande des systmes non linaires . . . . . . . . . . . . . . . . . . . . .
6.1
Reprsentation des systmes non-linaires . . . . . . . . . . . . . .
6.2
Commande des systmes . . . . . . . . . . . . . . . . . . . . . . . .
6.2.1
Commande proportionnelle, intgrale et drive . . . . . .
6.2.2
Commande sliding mode . . . . . . . . . . . . . . . . . . .
6.2.3
Limites de la commande sliding mode . . . . . . . . . . .
Intelligence computationnelle dans la commande sliding mode . . . . . . .
7.1
Application des rseaux de neurones dans la commande sliding mode
7.1.1
Architectures parallles . . . . . . . . . . . . . . . . . . .
7.1.2
Rseaux de neurones pour l'adaptation des paramtres du
contrleur . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2
Application de la logique oue dans la commande sliding mode . . .
7.2.1
Approches indirectes . . . . . . . . . . . . . . . . . . . . .
7.2.2
Approches directes . . . . . . . . . . . . . . . . . . . . . .
7.3
Rglage des paramtres du contrleur sliding mode avec les algorithmes gntiques . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4
Synthse de l'utilisation des rseaux RBF pour la commande sliding
mode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

18
18
19
19
20
20
20
20
20
22
22
23
23
24
24
25
25
26
27
27
27
29
30
32
33
33
33
36
36
36
38
38
38
41

2 Optimisation biogographique base sur le modle prdateur et proies


amlior
42
1
2

Introduction . . . . . . . . . . . . . . . . . . . .
Optimisation base sur la biogographie . . . .
2.1
Biogographie . . . . . . . . . . . . . . .
2.2
Optimisation et biogographie . . . . . .
2.2.1
Variable d'indice d'adquation .
2.2.2
Habitat . . . . . . . . . . . . .
2.2.3
Population . . . . . . . . . . .
2.2.4
Indice d'adquation de l'habitat
2.2.5
Taux d'immigration . . . . . .
IV

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

42
43
43
44
45
45
45
45
45

Table des matires


2.2.6
Taux d'migration . . . . . . . . . . . . . . . . . . . . . .
tapes de l'optimisation base sur la biogographie . . . . . . . . .
2.3.1
Initialisation . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2
valuation de la fonction HSI . . . . . . . . . . . . . . . .
2.3.3
Slection . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.4
Oprateur de migration . . . . . . . . . . . . . . . . . . .
2.3.5
Oprateur de mutation . . . . . . . . . . . . . . . . . . . .
Modle Prdateur et Proies . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Origine du modle prdateur et proies . . . . . . . . . . . . . . . .
3.2
Optimisation par le modle prdateur et proies . . . . . . . . . . . .
Hybridation de l'algorithme BBO par le modle prdateur et proies amlior
4.1
Nouvel oprateur de migration . . . . . . . . . . . . . . . . . . . . .
4.2
Amlioration du modle prdateur et proies . . . . . . . . . . . . .
Rglage d'un contrleur PID par l'approche PMBBO . . . . . . . . . . . .
5.1
Choix des fonctions objectifs . . . . . . . . . . . . . . . . . . . . . .
5.1.1
Fonctions bases sur l'erreur . . . . . . . . . . . . . . . . .
5.1.2
Fonction globale . . . . . . . . . . . . . . . . . . . . . . .
5.2
Architecture d'optimisation adopte . . . . . . . . . . . . . . . . . .
Rsultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1
Application de l'algorithme PMBBO avec le systme Masse-ressortAmortisseur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2
Application de l'algorithme PMBBO avec le pendule invers . . . .
6.3
tude comparative de l'algorithme PMBBO . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3

3
4
5

45
46
46
47
47
48
49
50
50
50
51
52
52
55
55
55
56
56
57
57
60
61
64

3 Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
65
1
2

3
4

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . .
Optimisation par colonie d'abeilles articielles . . . . . . . .
2.1
Intelligence bio-inspire . . . . . . . . . . . . . . . . .
2.1.1
Auto-organisation . . . . . . . . . . . . . .
2.1.2
Division du travail . . . . . . . . . . . . . .
2.2
Modle de comportement d'abeilles . . . . . . . . . .
2.2.1
Sources de nourriture . . . . . . . . . . . . .
2.2.2
Abeilles employes . . . . . . . . . . . . . .
2.2.3
Abeilles non employes . . . . . . . . . . .
2.3
Algorithme colonie d'abeilles articielles . . . . . . .
2.4
tapes de l'algorithme ABC . . . . . . . . . . . . . .
2.4.1
Phase des employes . . . . . . . . . . . . .
2.4.2
Phase des onlookers . . . . . . . . . . . . .
2.4.3
Phase des scouts . . . . . . . . . . . . . . .
2.5
Discussion sur l'algorithme ABC . . . . . . . . . . .
2.5.1
Avantages de l'algorithme ABC . . . . . . .
2.5.2
Limites de l'algorithme ABC . . . . . . . .
Colonie d'abeilles articielles et prdateur et proies amlior
Analyse statistique des algorithmes PMBBO et ABC-PP . .
4.1
Paramtres de l'exprimentation . . . . . . . . . . . .
4.2
Conditions d'utilisation des tests paramtriques . . .
4.3
Tests non-paramtriques . . . . . . . . . . . . . . . .
V

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

65
66
66
67
68
68
68
68
69
70
70
71
71
72
72
72
72
73
74
75
77
79

Table des matires

5
6

4.3.1
Comparaisons par paires : Test de Wilcoxon signed ranks .
4.3.2
Comparaison multiple avec une mthode de contrle . . .
4.3.3
Procdures Post-hoc . . . . . . . . . . . . . . . . . . . . .
4.4
Estimation du contraste . . . . . . . . . . . . . . . . . . . . . . . .
Rglage d'un contrleur PID par l'approche ABC-PP . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

81
82
85
92
93
95

4 Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme


ABC-PP
97
1
2
3
4

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Apprentissage des rseaux RBF par les algorithmes volutionnaires . . . .
2.1
Classication des approches d'apprentissage . . . . . . . . . . . . .
2.2
Travaux antrieurs . . . . . . . . . . . . . . . . . . . . . . . . . . .
Approximation des fonctions par les rseaux RBF . . . . . . . . . . . . . .
3.1
Approximation des fonctions . . . . . . . . . . . . . . . . . . . . . .
3.2
Approximation des fonctions par les rseaux RBF . . . . . . . . . .
Approche d'apprentissage des rseaux RBF par l'algorithme ABC-PP . . .
4.1
Analyse statistique de l'apprentissage des rseaux RBF par les algorithmes volutionnaires . . . . . . . . . . . . . . . . . . . . . . .
4.1.1
Test de Wilcoxon signed ranks . . . . . . . . . . . . . . .
4.1.2
Estimation du Contraste . . . . . . . . . . . . . . . . . . .
Commande sliding mode par l'approche RBF-ABC-PP . . . . . . . . . . .
5.1
Architecture propose . . . . . . . . . . . . . . . . . . . . . . . . .
5.2
Rsultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1
Apprentissage du rseau RBF . . . . . . . . . . . . . . . .
5.2.2
Application la commande sliding mode . . . . . . . . . .
5.2.3
Test de robustesse . . . . . . . . . . . . . . . . . . . . . .
Analyse, critiques et motivations pour le chapitre suivant . . . . . . . . . .

97
98
98
99
100
100
100
101
102
105
105
106
106
107
107
109
111
114

5 Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
116
1
2

4
5

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Approche GAP-EKF pour l'apprentissage des rseaux de neurones RBF . .
2.1
Inuence d'un neurone . . . . . . . . . . . . . . . . . . . . . . . . .
2.2
Critre de croissance (Growing Criterion) . . . . . . . . . . . . . . .
2.3
Ajustement des paramtres du rseau par l'algorithme EKF . . . .
2.4
Critre d'lagage (Pruning Criterion) . . . . . . . . . . . . . . . . .
Approche GAP-EKF-Floue pour la commande sliding mode des systmes
non linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Commande quivalente RBF-GAP-EKF . . . . . . . . . . . . . . .
3.2
Commande Corrective oue . . . . . . . . . . . . . . . . . . . . . .
3.2.1
Entres du contrleur ou . . . . . . . . . . . . . . . . . .
3.2.2
Sortie du contrleur ou . . . . . . . . . . . . . . . . . . .
3.2.3
Systme d'infrence . . . . . . . . . . . . . . . . . . . . .
Rsultats des simulations . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1
Application au pendule invers . . . . . . . . . . . . . . . . . . . .
4.2
Application au robot manipulateur SCARA . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
VI

116
117
118
118
120
120

121
121
122
122
123
124
125
125
129
132

Bibliographie

Conclusion gnrale

135

Bibliographie

139

Annexes

151

A Systmes non linaires utiliss

152

1
2
3

Systme masse ressort amortisseur . . . . . . . . . . . . . . . . . . . . . . . 152


Pendule invers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
Robots manipulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

VII

Liste des gures


1

Navigation travers la thse . . . . . . . . . . . . . . . . . . . . . . . . . .

1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
1.10
1.11
1.12
1.13
1.14
1.15
1.16
1.17

Modle de base d'un neurone formel. . . . . . . . . . . . . . . . . . . .


Architecture d'un rseau RBF. . . . . . . . . . . . . . . . . . . . . . . .
Fonction gaussienne du rseau RBF. . . . . . . . . . . . . . . . . . . .
Partition oue de la variable linguistique "Temprature". . . . . . . . .
Formes usuelles des fonctions d'appartenance. . . . . . . . . . . . . . .
Structure interne d'un systme d'infrence oue. . . . . . . . . . . . . .
Optimum local et global d'une fonction. . . . . . . . . . . . . . . . . .
Classication des mta-heuristiques. . . . . . . . . . . . . . . . . . . . .
Principe gnral d'un algorithme volutionnaire. . . . . . . . . . . . . .
Bloc de commande d'un systme non linaire. . . . . . . . . . . . . . .
Architecture d'un contrleur PID. . . . . . . . . . . . . . . . . . . . . .
Schma de la commande sliding mode. . . . . . . . . . . . . . . . . . .
Exemple de chattering. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Architecture neuro-sliding mode control (Ertugrul and Kaynak, 2000). .
Architecture propose par (Jezernik et al., 1997). . . . . . . . . . . . .
Architecture propose par (Kim and Oh, 1995). . . . . . . . . . . . . .
Architecture propose par (Karakasoglu and Sundareshan, 1995). . . .

2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12
2.13
2.14
2.15
2.16
2.17

Migration des espces (Simon, 2008) . . . . . . . . . . . . . . . . . . . . .


Organigramme gnral de l'algorithme BBO . . . . . . . . . . . . . . . . .
Illustration de deux solutions candidates S1 et S2 . . . . . . . . . . . . . .
Exemples des prdateurs et proies. . . . . . . . . . . . . . . . . . . . . . .
Modle prdateur et proie. . . . . . . . . . . . . . . . . . . . . . . . . . .
Algorithme PMBBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Modle prdateur et proies amlior. . . . . . . . . . . . . . . . . . . . . .
Application de l'algorithme PMBBO pour le rglage des paramtres du PID.
volution des meilleures HSI par PMBBO Masse ressort amortisseur. . .
volution des mauvaises HSI par PMBBO, Masse ressort amortisseur. . .
volution des gains du PID par PMBBO, Masse ressort amortisseur. . . .
Positions relle et dsire du Masse ressort amortisseur par PMBBO. . . .
Erreurs en position du Masse ressort amortisseur par PMBBO. . . . . . .
volution des meilleures HSI de la PMBBO avec un pendule invers). . .
volution des gains du PID pour la PMBBO avec un pendule invers. . .
Erreurs en position angulaire par la PMBBO avec un pendule invers). .
Erreurs en position angulaire(tude comparative du PMBBO). . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

8
12
13
15
17
18
22
24
26
29
29
31
33
34
35
35
36
44
46
49
50
51
54
54
57
58
58
59
59
59
60
61
61
63

3.1 Exemples d'essaim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67


VIII

Liste des gures


. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
les AG)
. . . . .
. . . . .

67
67
67
68
69
69
70
74
75
91
91
91
94
94
95
102
107
107
108
109
110
110

4.10
4.11
4.12
4.13
4.14
4.15

Procdure d'apprentissage des rseaux RBF par l'algorithme ABC-PP . . .


Architecture de la commande quivalente par rseau RBF et ABC-PP. . .
Commande Sliding mode par les rseaux RBF et ABC-PP . . . . . . . . .
Base d'apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
volution de l'erreur d'apprentissage pour ABC-PP et rtro-propagation .
Positions angulaires dsire et relles (ABC-PP et rtro-propagation) . . .
Erreurs Angulaires e(t) (ABC-PP et rtro-propagation ) . . . . . . . . . .
Erreur de f (x) pendant la commande sliding mode(ABC-PP et rtropropagation) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Erreur de g(x) pendant la commande sliding mode (ABC-PP et rtropropagation) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Signal de commande sliding mode (ABC-PP-RBF) . . . . . . . . . . . . .
Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Erreur d'estimation de la fonction f(x) avec bruit . . . . . . . . . . . . . .
Erreur d'estimation de la fonction g(x) avec bruit . . . . . . . . . . . . . .
Erreur angulaire de la commande sliding mode (ABC-PP-RBF) avec bruit
Sortie du contrleur sliding mode (ABC-PP-RBF) avec bruit . . . . . . . .

111
111
112
112
113
113
113

5.1
5.2
5.3
5.4
5.5
5.6
5.7
5.8
5.9
5.10
5.11
5.12
5.13
5.14
5.15

Organigramme de l'algorithme GAP-EKF. . . . . . . . . . . . . .


Approche GAP-EKF-Floue dans la commande sliding mode. . . .
Fonctions d'appartenance de la variable d'entre s . . . . . . . . .
Fonctions d'appartenance de la variable d'entre s . . . . . . . . .
Fonctions d'appartenance de la variable de sortie K . . . . . . . .
Surface de la sortie du contrleur ou K . . . . . . . . . . . . . .
Positions dsire et relle du pendule invers par GAP-EKF-Floue
Erreur de poursuite de la position angulaire par GAP-EKF-Floue
par GAP-EKF-Floue . .
Erreur d'estimation de la fonction f (, )
par GAP-EKF-Floue . .
Erreur d'estimation de la fonction g(, )
volution du nombre des neurones du rseau RBF . . . . . . . . .
Signal de commande pour le pendule invers par GAP-EKF-Floue
Valeurs du gains K, pendule invers avec GAP-EKF-Floue . . . .
Erreur d'estimation de la matrice M par GAP-EKF-Flou . . . . .
Erreur d'estimation de la matrice C par GAP-EKF-Flou . . . . .

119
121
123
123
124
125
127
127
127
128
128
128
129
131
131

3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
3.10
3.11
3.12
3.13
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9

(a) Fourmis . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(b) Abeilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(c) Oiseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Source de nourriture. . . . . . . . . . . . . . . . . . . . . . . . . .
Abeille employe exploitant une source de nourriture. . . . . . . .
Un onlooker tente d'amliorer une source de nourriture. . . . . . .
Danse frtillante des abeilles. . . . . . . . . . . . . . . . . . . . . .
AlgorithmeABC-PP . . . . . . . . . . . . . . . . . . . . . . . . . .
Procdure de l'analyse statistique . . . . . . . . . . . . . . . . . .
Rsultats des procdures post-hoc, Test de Friedman . . . . . . .
Rsultats des procdures post-hoc, Test de Friedman Aligned . . .
Rsultats des procdures post-hoc, Test de Quade . . . . . . . . .
Valeurs minimales de la fonction objectif obtenues par ABC-PP et
volution des gains PID obtenus par ABC-PP . . . . . . . . . . .
Erreurs angulaires obtenues par ABC-PP et les AG . . . . . . . .

IX

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

110

Liste des gures


5.16
5.17
5.18
5.19
5.20
5.21

Erreur d'estimation du vecteur du frottement F par GAP-EKF-Flou


Positions des 3 articulations par GAP-EKF-Floue . . . . . . . . . .
Erreurs de poursuite des 3 articulations par GAP-EKF-Floue . . . .
Signaux de commande des 3 articulations par GAP-EKF-Floue . . .
Sorties du contrleurs ous (gains K) par GAP-EKF-Floue . . . . .
Rsum des contributions . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

132
132
132
133
133
138

A.1 Systme masse ressort amortisseur. . . . . . . . . . . . . . . . . . . . . . . 152


A.2 Pendule invers simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
A.3 Robot manipulateur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

Liste des tableaux


1.1 Paramtres du PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.2 Synthse des approches sliding mode avec rseaux RBF. . . . . . . . . . . 40
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8

Mta-heuristiques pour l'optimisation d'un PID . . . . . . . . . . . . . . .


Terminologie de la BBO . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Paramtres de la BBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Paramtres de la PMBBO, Masse ressort amortisseur . . . . . . . . . . . .
Paramtres de la PMBBO, pendule invers . . . . . . . . . . . . . . . . .
Paramtres de BBO, MBBO et PMBBO pour la comparaison. . . . . . . .
Paramtres des algorithmes gntiques(AG) pour la comparaison . . . . . .
Cots minimums des 10 excutions pour les algorithmes AG, BBO, MBBO
et PMBBO (fg ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.9 Performances du pendule invers avec PID, tude comparative de la PMBBO

43
45
47
58
60
62
62

3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
3.10
3.11
3.12

71
77
78
79
80
82
85
89
90
93
94
95

Paramtres de l'algorithme ABC . . . . . . . . . . . . . . . . . . . . .


Paramtres des algorithmes PMBBO et ABC-PP . . . . . . . . . . . .
Moyennes de l'erreur pour les 28 fonctions benchmark. . . . . . . . . .
Tests de normalit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Test de htroscedasticit de Levene. . . . . . . . . . . . . . . . . . . .
Rsultats du test de Wilcoxon. . . . . . . . . . . . . . . . . . . . . . . .
Rangs moyens des tests Friedman, Aligned Friedman et Quade . . . .
p-values Ajustes pour les procdures post-hoc . . . . . . . . . . . . . .
Seuils de rejet des procdures . . . . . . . . . . . . . . . . . . . . . . .
Estimation du Contraste . . . . . . . . . . . . . . . . . . . . . . . . . .
Paramtres de ABC-PP pour l'optimisation d'un PID . . . . . . . . . .
Performance du pendule invers contrl par PID (ABC-PP et les AG)

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

4.1 Paramtres des algorithmes PMBBO, ABC et ABCPP pour l'apprentissage des rseaux RBF. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Paramtres des algorithmes Gntiques pour l'apprentissage hors ligne des
rseau RBF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Valeurs moyennes du critre J pour les 10 fonctions . . . . . . . . . . . . .
4.4 Rsultats du test Wilcoxon pour l'apprentissage des rseaux RBF . . . . .
4.5 Rsultats du test d'estimation du contraste pour l'apprentissage des rseaux
RBF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6 Paramtres des algorithmes ABC-PP et rtro-propagation . . . . . . . . .

63
63

104
104
104
105
106
108

5.1 Rgles du contrleur ou . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124


5.2 Paramtres de l'algorithme d'apprentissage GAP-EKF . . . . . . . . . . . 126
XI

Liste des tableaux


5.3 Paramtres de l'algorithme d'apprentissage GAP-EKF pour les 3 rseaux
RBFM, RBFC et RBFF . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.4 Erreurs d'estimation des 3 rseaux RBF par GAP-EKF. . . . . . . . . . . 133

XII

Liste des abrviations et symboles


Meilleure solution (PMBBO et ABC-PP)
.pred prdateur (PMBBO et ABC-PP)

Niveau de signication d'un test


(x) Valeur de vrit d'une rgle oue
y
Sortie d'un rseau de neurones

Facteur de chevauchement(GAP-EKF)

Pente de la surface de glissement


i
Taux d'immigration d'un habitat (BBO)

Centre d'une fonction gaussienne


i
Taux d'migration d'un habitat (BBO)

Fonction d'activation d'un rseau RBF

Taux de chasse

Largeur d'une fonction gaussienne

Angle du pendule invers


a
Poids du rseau de neurones
cmax Nombre maximum de cycles (ABC)
d(t) Perturbations externes
e
Erreur de suivi
gmax Nombre maximum de gnrations (BBO)
H
Habitat (BBO)
I
Matrice d'identit
Kd
Gain driv d'un PID
Ki
Gain intgral d'un PID
Kp
Gain proportionnel d'un PID
m
La masse de la tige d'un pendule invers
M (q) Matrice d'inertie d'un robot
mi
Probabilit de mutation (BBO)
mmax Taux maximum de mutation (BBO)
Nx
Nombre d'entres d'un rseau de neurones
Ny
Nombre de sorties d'un rseau de neurones
npred Nombre de prdateurs
.b

XIII

Liste des abrviations et symboles


Omax Dpassement maximal

Probabilit d'existence (BBO)


Pmax Probabilit maximale d'existence (BBO)
q(t) Position angulaire d'une articulation d'un robot
s
Surface de glissement
sn
Source de nourriture (ABC)
Tm
Temps de monte d'un systme
Tr
Temps de rponse d'un systme
u(t) Signal de commande
UA (x) Fonction d'appartenance d'une variable oue
uc (t) Commande corrective de la sliding mode
ueq (t) Commande quivalente de la sliding mode
x
Entre d'un rseau
x(t) Vecteur d'tat
xd (t) tat dsire
y(t) Sortie d'un systme ou d'une fonction
ABC Articial Bees Colony
ABC-PP Articial Bees Colony-Predator and Prey
ACO Ant Colony Optimization
AG Algorithmes gntiques
BBO Biogeography Based Optimization
DE Dierential Evolution
EKF Extended Kalman Filter
FL Fuzzy Logic
FWER Family-Wise Error Rate
GAP Growing and Pruning
HSI Habitat Suitability Index
MBBO Modied Biogeography Based Optimization
P&P Predator and Prey
PD Proportionnelle et drive
PID Proportionnelle, intgrale et drive
PMBBO Predator and Prey Modied Biogeography Based Optimization
PSO Particle Swarm Optimization
RAN Ressource Allocation Network
RANEKF RAN extended Kalman Filter
RBF rseau fonctions de bases radiales
SIV Suitability Index variable
Pi

XIV

Introduction gnrale
1 Introduction
Les mthodes classiques de l'automatique ont t largement appliques de nombreux
problmes de rgulation industrielle. Cependant, la plupart des systmes physiques prsentent des non linarits et leurs paramtres sont souvent mal connus et/ou variables
dans le temps (Lewis et al., 1993).
Pour la commande de telles classes de systmes, les mthodes conventionnelles de
l'automatique ont montr leurs limites en termes de stabilisation et de performances.
Avec le dveloppement considrable des calculateurs numriques, les automaticiens ont
adopt de plus en plus de nouvelles approches telles que la commande prdictive et la
commande robuste (Slotine and Li, 1991).
Lorsque les systmes commands sont soumis des perturbations et des variations
de paramtres, la commande en mode glissant (Sliding Mode Control) apparat comme
une bonne solution permettant d'assurer la robustesse, la haute prcision, la bonne stabilit et la simplicit pour les systmes perturbs. Nanmoins, cette solution prsente
l'inconvnient de ncessiter une estimation du modle du systme en temps rel.
Les avances rcentes en informatique ont permis l'apparition d'outils intelligents
comme les rseaux de neurones et la logique oue. Ces outils sont regroups sous le
concept de l'intelligence computationnelle. Cette dernire est un domaine de l'informatique qui tudie les mcanismes d'adaptation qui permettent un comportement intelligent
dans des environnements changeants (Kusiak, 2000). Elle se concentre sur les modles
informatiques des systmes biologiques et d'intelligence naturelle, depuis l'intelligence des
essaims, les systmes ous, les rseaux de neurones articiels, les systmes immunitaires
articiels et la computation volutive. Elle fournit des algorithmes de paradigmes pour
rsoudre des problmes complexes du monde rel comme l'approximation des paramtres
des systmes non linaires (Engelbrecht, 2003).

2 Contexte et problmatique
Les rseaux de neurones en gnral et les rseaux fonctions de bases radiales (RBF)
en particulier, sont de puissants approximateurs de fonctions condition de trouver la
1

Introduction gnrale
bonne combinaison des paramtres et la bonne architecture. Ce rglage est ralis par les
algorithmes d'apprentissage (Haykin, 1999).
L'apprentissage des rseaux de neurones fonctions de bases radiales peut tre considr comme un problme d'optimisation o sa rsolution consiste trouver la ou les
meilleures solutions vriant un ensemble de contraintes et d'objectifs dnis par l'utilisateur. Il est ncessaire que le problme introduise un critre de comparaison pour dterminer si une solution est meilleure qu'une autre. Ainsi, la meilleure solution, appele
aussi solution optimale ou l'optimum, est la solution ayant obtenu la meilleure valuation
au regard du critre dni. Les problmes d'optimisation sont des problmes complexes
et donc ne possdent pas, ce jour, un algorithme gnral permettant de les rsoudre
en un temps polynomial. Ce problme de l'explosion combinatoire limite l'utilisation des
mthodes exactes la rsolution des problmes de petites tailles. Dans le cas contraire,
comme il est souvent le cas pour les applications relles, les mthodes approches et
en particulier, les mta-heuristiques sont devenues une alternative intressante (Mitchell,
1998).
Les algorithmes volutionnaires sont des mta-heuristiques d'inspiration biologique
bass sur la slection naturelle no-Darwinienne. Ils gnrent une population de solutions
candidates et tentent d'voluer en appliquant des oprateurs d'volution et la meilleure
solution est celle qui a la valeur optimale d'une fonction objectif. Ils sacrient souvent la
compltude pour gagner de l'ecacit. Parmi ces mta-heuristiques, nous pouvons citer
l'optimisation base sur la biogographie (BBO) et la colonie d'abeilles articielles (ABC).
Ces algorithmes procdent par l'exploration de plusieurs zones de l'espace de recherche
et l'exploitation des zones prometteuses en intensiant la recherche dans leurs voisinages.
Le problme de ces algorithmes est de trouver un compromis entre l'intensication des
recherches et la diversication (Paschos, 2005).

3 Objectifs et contributions
Pour remdier aux problmes de la commande sliding mode savoir, la ncessit
de connaitre priori les paramtres du modle, nous proposons d'utiliser les rseaux
de neurones fonctions de bases radiales comme approximateurs. Reste choisir un
algorithme d'apprentissage adquat et robuste d la nature dynamique et variante du
domaine d'application souhait.
Dans cette thse, nous avons uvr en deux axes parallles pour concevoir deux approches de commande sliding mode base des rseaux de neurones RBF, la premire
repose sur un algorithme d'apprentissage hors ligne par les algorithmes d'optimisation
volutionnaire, tandis que la deuxime utilise un algorithme d'apprentissage en ligne et
un contrleur ou.
2

Introduction gnrale

3.1 Apprentissage des rseaux RBF par les algorithmes volutionnaires


Dans ce volet, et an d'implmenter un algorithme d'apprentissage hors ligne en utilisant les algorithmes volutionnaires, nous avons travaill avec deux algorithmes rcents,
l'optimisation base sur la biogographie (BBO) et la colonie d'abeilles articielles (ABC).
Pour utiliser ces deux algorithmes dans l'apprentissage des rseaux de neurones RBF,
nous devons accrotre leur potentiel de diversication pour viter qu'ils soient pigs dans
des minima locaux.
La solution propose dans cette thse est de procder l'hybridation des deux algorithmes avec une mthode naturelle assurant la diversication : le modle prdateur et
proies. Ceci a conduit aux contributions suivantes :

A) Application de l'optimisation base sur la biogographie pour l'optimisation des


paramtres d'un contrleur PID :
L'algorithme BBO a t utilis pour trouver la combinaison optimale des gains d'un
contrleur PID pour le pendule invers, les performances obtenues ont t compares
avec celles des algorithmes gntiques.
Cette application a fait l'objet d'une communication internationale.
Salem, M. and Khel, M. F. (2012). Application of biogeography based optimization in tuning a
PID controller for nonlinear systems. In : IEEE International Conference on Complex Systems
(ICCS), Agadir , Morocco.

B) Amlioration du modle Prdateur et proies :


Avant d'utiliser le modle prdateur et proies pour augmenter la diversication des
algorithmes BBO et ABC, nous l'avons amlior en introduisant les modications
suivantes :
i) Considration de plusieurs prdateurs au lieu d'un.
ii) Considration des meilleures solutions pou crer ls prdateurs.
iii) Dplacement des proies vers des emplacements alatoires.
iv) Utilisation d'un taux de chasse variable.

C) Hybridation de l'algorithme d'optimisation base sur la biogographie (BBO) par


le modle prdateur et proies amlior :
Dans l'algorithme BBO classique, Nous avons procd la modication de l'oprateur de Migration et remplac la mutation par le modle prdateur et proies amlior
donnant lieu un nouvel algorithme hybride PMBBO.
Cette tape a t valorise par les deux publications suivantes :
Salem, M. and Khel, M. F. (2014a). Optimization of nonlinear controller with an enhanced
biogeography approach. An International Journal of Optimization and Control : Theories &
Applications, 4(2) :77-87.

Introduction gnrale
Salem, M. and Khel, M. F. (2014b). Predator and prey modied biogeography based optimization approach (PMBBO) in tuning a PID controller for nonlinear systems. International
Journal of Intelligent Systems and Applications(IJISA), 6(11) :12-20.

D) Amlioration de la colonie d'abeilles articielles par le modle prdateur et proies


amlior.
Nous avons essayer d'accrotre la diversication de l'algorithme ABC en remplaant
la phase des scouts par le modle prdateur et proie amlior. L'algorithme obtenu
ABC-PP a t appliqu pour optimiser un contrleur PID donnant des rsultats
meilleurs que les algorithmes gntiques. Il a t valid par une communication
internationale :
Salem, M. and Khel, M. F. (2013). Nonlinear inverted pendulum PID control by an improved
articial bees colony-predator and prey approach. In 3rd IEEE International Conference on
Systems and Control ICSC13, Algiers, Algeria.

E) Analyse statistique des algorithmes PMBBO et ABC-PP pour le problme d'optimisation des fonctions :
Pour choisir l'algorithme le plus adapt des deux, nous avons eectu une comparaison des algorithmes PMBBO et ABC-PP avec quatre algorithmes volutionnaires
rcents issus de la comptition CEC2013 (Congress on Evolutionary Computation).
La comparaison a t appuye par une une analyse statistique avec une panoplie de
tests paramtriques et non-paramtriques.

F) Commande sliding mode par les rseaux de neurones RBF : Aprs qu'une autre
comparaison a couronn l'algorithme ABC-PP comme tant le plus performant pour
le problme d'apprentissage des rseaux RBF pour l'approximation des fonctions
benchmark, il a t appliqu pour l'apprentissage d'un rseau de neurones RBF
pour estimer le modle du pendule invers dans la commande sliding mode. Cette
partie a fait l'objet d'une communication internationale :
Salem, M. and Khel, M. F. (2014c). An enhanced swarm intelligence based training algorithm
for RBF neural networks in function approximation. In The 2nd IEEE World Conference on
Complex Systems, 2014, Agadir, In press.

3.2 Apprentissage en ligne des rseaux de neurones RBF


Dans le deuxime volet, nous avons considr les algorithmes d'apprentissage en ligne
des rseaux de neurones RBF dans la commande sliding mode.
Dans cette partie de la thse, nous avons introduit les contributions suivantes :
G) Amlioration et implmentation de l'algorithme d'apprentissage en ligne GAP-EKF
des rseaux de neurones RBF, l'algorithme utilise une stratgie Growing and Pruning o le rseau commence avec 0 neurones et ceux-ci seront ajouts ou supprims
4

Introduction gnrale
selon le besoin. Nous avons choisi de modier seulement les paramtres du neurone
le plus proche.
H) Conception d'une approche de commande sliding mode base sur la combinaison en
parallle des rseaux de neurones RBF avec apprentissage par l'algorithme GAPEKF et d'un contrleur ou.
Ces rsultats ont t valids par les productions suivantes :
Salem, M. and Khel, M. F. (2011). rbf based sliding mode control for robot manipulators. In
International Conference on Communications, Computing and Control Applications (CCCA
2011), Hammamet, Tunisia.

Salem, M. and Khel, M. F. (2014b). Sequential adaptive RBF-fuzzy variable structure control
applied to robotics systems. International Journal of Intelligent Systems and Applications,
6(10) :19-29.

4 Structure de la thse
Ce mmoire est structur en cinq chapitres (cf. Figure 1) :
Le premier chapitre dresse un tat de l'art non exhaustif des techniques de l'intelligence
computationnelle : rseaux de neurones, logique oue et algorithmes d'optimisation. Deux
commandes des systmes non linaires sont prsentes : la commande Proportionnelleintgrale et drive (PID) et la commande robuste sliding mode. Ce chapitre est cltur
par une synthse des approches de la commande sliding mode avec les rseaux RBF.
Le deuxime chapitre commence par introduire l'algorithme d'optimisation biogographique (BBO), nous passons ensuite dtailler une proposition d'amlioration du modle
prdateur et proies pour l'utiliser pour hybrider l'algorithme BBO. Enn, une comparaison des performances de la nouvelle approche PMBBO avec les algorithmes gntiques
pour le rglage d'un contrleur PID est prsente.
Le troisime chapitre est consacr la mta-heuristique d'optimisation ABC et son
hybridation avec le modle prdateur et proies amlior (ABC-PP) suivie par une analyse
statistique comparant les deux algorithmes introduits par la prsente thse avec quelques
algorithmes volutionnaires connus.
Le quatrime chapitre explore l'utilisation de l'algorithme ABC-PP dans l'apprentissage hors ligne des rseaux de neurones RBF et introduit une commande sliding mode
base sur l'approche ABC-PP-RBF pour commander un pendule invers.
Le cinquime chapitre dcrit un nouvel algorithme d'apprentissage en ligne des rseaux
de neurones RBF et son fonctionnement. L'algorithme GAP-EKF est utilis en parallle
avec un contrleur ou pour concevoir une commande sliding mode d'un pendule invers
en premier lieu et ensuite le robot manipulateur SCARA.
5

Techniques de l'intelligence
computationnelle et ses applications dans la commande

Chapitre 1

Introduction gnrale

Chapitre 2
Optimisation biogographique base sur le modle
prdateur et proies amlior

Chapitre 3
Optimisation par colonie
d'abeilles articielles et prdateur et proies amlior

Chapitre 4
Apprentissage hors ligne des
rseaux de neurones RBF
par l'algorithme ABC-PP

Chapitre 5
Apprentissage en ligne des
rseaux de neurones RBF
par l'approche GAP-EKF
Figure

1: Navigation travers la thse

Chapitre 1
Techniques de l'intelligence
computationnelle et ses applications
dans la commande
1 Introduction
La majorit des systmes dynamiques utiliss dans la ralit sont des systmes non
linaires. Ce type de systme est gnralement sujet aux variations et incertitudes structurelles et non structurelles causes par l'environnement d'o le recours aux techniques
de l'intelligence computationnelle pour palier ce problme. Ces techniques sont connues
par leur adaptation aux changements environnementaux.
Dans ce chapitre, nous allons prsenter ces techniques (Rseaux de neurones, Logique
oue et algorithmes volutionnaires) et leurs applications dans la commande robuste (Sliding mode) des systmes non linaires.
La dernire section est consacre la prsentation d'une synthse des approches rcentes utilisant les rseaux RBF dans la commande sliding mode et leurs comparaison.

2 Rseaux de neurones
2.1 Neurone formel
Le neurone formel est un modle mathmatique simpli du neurone biologique. Il
prsente un certain nombre d'entres, un corps traitant ces entres et un axone vhiculant
la rponse du neurone. La premire modlisation d'un neurone dcoule des rsultats des
travaux signicatifs de Mac Culloch et Pitts (McCulloch and Pitts, 1943). La Figure 1.1
reprsente un modle de base de ce neurone.
Le modle de la Figure 1.1 est compos :
- Des entres xi , i = 0, 1, . . . , n ; l'entre spciale avec la valeur x0 = 1 est appele le biais
7

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
x0 = 1
x1

a1

a0

x2

a2

xn

an

Figure

1.1: Modle de base d'un neurone formel.

- Des paramtres de pondration (Poids) ai .


- De la fonction d'activation ou de seuillage (non linaire, sigmode,. . . etc.) ;
- D'une sortie y donne par la relation (1.1) :
y =

n
X

!
ai x i

(1.1)

i=0

Une collection de neurones formels est appele rseaux de neurones. Ces rseaux sont
souvent constitus de couches de neurones inter-connects (McCulloch and Pitts, 1943)
et le type de connections, la nature de la fonction d'activation et d'autres paramtres dtermineront le type du rseau de neurones (Perceptron multicouches, Rseaux fonctions
de base radiales, Rseau de Kohonen, etc..).

2.2 Proprits des rseaux de neurones


2.2.1 Apprentissage
L'apprentissage et l'adaptation constituent deux caractristiques essentielles des rseaux de neurones. Le rle de l'apprentissage est de dnir les poids de chaque connexion.
De nombreuses rgles existent pour modier les poids des connexions pour arriver un
apprentissage correct. Lorsque la phase d'apprentissage est acheve, le rseau doit tre
capable de faire les bonnes associations pour les vecteurs d'entres qu'il n'aura pas appris (Moody and Darken, 1995).
C'est l'une des proprits importantes dans les rseaux de neurones, car elle permet
de donner la capacit de reconnaitre des formes ressemblantes et mme dgrades des
prototypes appris.
Il existe deux types principaux d'apprentissages : l'apprentissage supervis et l'apprentissage non- supervis.

Apprentissage supervis
Nous parlons d'apprentissage supervis quand le rseau est aliment avec la bonne
rponse pour les exemples d'entres donns. Le rseau a alors comme but d'approximer ces exemples aussi bien que possible et de dvelopper la fois la bonne
8

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
reprsentation mathmatique qui lui permet de gnraliser ces exemples pour ensuite
traiter des nouvelles situations (Hagan et al., 1995).

Apprentissage non-supervis
Dans le cas de l'apprentissage non-supervis le rseau dcide lui-mme quelles sont
les bonnes sorties. Cette dcision est guide par un but interne au rseau qui exprime
une conguration idale atteindre par rapport aux exemples introduits. Les cartes
auto organisatrices de Kohonen sont un exemple de ce type de rseau (Hagan et al.,
1995).

Outre la classication prsente ci-dessus, les mthodes d'apprentissage sont souvent


direncies de par leur caractre hors ligne (o-line) ou en ligne (on-line) :

Apprentissage hors ligne


Ce mode d'apprentissage consiste accumuler les erreurs instantanes conscutives,
et n'eectuer l'adaptation des poids synaptiques que lorsque l'ensemble des donnes d'apprentissage ont t prsentes au rseau. Cette dernire mthode permet
de mieux estimer le gradient rel de la fonction cot, puisqu'il est prsent calcul
partir d'un ensemble d'exemples, plutt qu' partir d'un seul.

Apprentissage en ligne
Il consiste modier les valeurs des poids synaptiques immdiatement aprs la prsentation d'un exemple. Dans ce cas, seul le gradient instantan de la fonction cot
est utilis pour l'adaptation des paramtres du systme. Sous la condition que les
exemples soient prsents au rseau de neurones de manire alatoire, l'apprentissage en-ligne rend la recherche du minimum de la fonction cot stochastique en
nature, ce qui rend moins probable, pour l'algorithme d'apprentissage, de tomber
dans un minimum local

L'ecacit relative des modes d'apprentissage en-ligne et hors-ligne dpend essentiellement du problme considr. L'apprentissage en-ligne prsente cependant l'avantage que,
pour une seule prsentation de l'ensemble de la base de donnes, il implique de multiples
phases d'adaptations des poids synaptiques lorsque des donnes similaires se reprsentent,
ce qui se produit frquemment pour des bases de donnes trs tendues (Hagan et al.,
1995).

2.2.2 Approximation parcimonieuse


Les rseaux de neurones couches ont la proprit gnrale d'tre des approximateurs
universels parcimonieux (Hagan et al., 1995).
Les travaux de Cybenko (Cybenko, 1989) a prouv la possibilit d'approximer n'importe quelle fonction non linaire avec la prcision voulue par des rseaux de neurones
une seule couche cache avec des fonctions d'activations non linaires. Cependant, rien
n'est dit sur le nombre de neurones ncessaires cette approximation.
9

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
Cette proprit n'est pas spcique des rseaux de neurones mais au contraire d'autres
approximateurs comme les polynmes. La spcicit des rseaux de neurones rside dans
le caractre  parcimonieux  de l'approximation, o prcision gale, les rseaux de neurones ncessitent moins de paramtres ajustables que les autres approximateurs connus ;
plus prcisment, le nombre de poids varie linairement avec le nombre de variables de
la fonction approcher, alors qu'il varie exponentiellement pour la plupart des autres
approximateurs.
C'est cette remarquable parcimonie qui justie l'intrt pratique des rseaux de neurones : ds qu'un problme fait intervenir plus de deux variables, les rseaux de neurones
sont, en gnral, prfrables aux autres mthodes (Hornik, 1991).

2.3 tapes de la conception d'un rseau de neurones


Les rseaux de neurones sont souvent utiliss pour rsoudre les problmes de classication et de rgression. An de concevoir un rseau de neurones, nous citons chronologiquement les quatre grandes tapes qui doivent tre suivies (Hagan et al., 1995).

2.3.1 Choix et prparation des chantillons


Le processus d'laboration d'un rseau de neurones commence toujours par le choix et
la prparation des chantillons de donnes. Comme dans les cas d'analyse de donnes, cette
tape est cruciale et va aider le concepteur dterminer le type de rseau le plus appropri
pour rsoudre sont problme. La faon dont se prsente l'chantillon conditionne : le type
de rseau, le nombre de neurones d'entre, le nombre de neurones de sortie et la faon
dont il faudra mener l'apprentissage, les tests et la validation (Moody and Darken, 1995).

2.3.2 laboration de la structure du rseau


La structure du rseau dpend troitement du type des chantillons. Il faut d'abord
choisir le type de rseau : un perceptron standard, un rseau de Hopeld, un rseau de
fonctions bases radiales, un rseau de Kohonen etc... Dans le cas du perceptron par
exemple, il faudra aussi choisir le nombre de neurones dans la couche cache. Plusieurs
mthodes existent et nous pouvons par exemple prendre une moyenne du nombre de
neurones d'entre et de sortie, mais rien ne vaut de tester toutes les possibilits et de
choisir celle qui ore les meilleurs rsultats (Hagan et al., 1995).

2.3.3 Apprentissage du rseau


L'apprentissage consiste tout d'abord calculer les poids optimaux des direntes
liaisons, en utilisant un chantillon. La mthode la plus utilise est la rtro-propagation :
nous entrons des valeurs des cellules d'entre et en fonction de l'erreur obtenue en sortie,
10

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
nous corrigeons les poids. Ce cycle est rpt jusqu' ce que la courbe d'erreur du rseau
ne soit croissante (il faut bien prendre garde de ne pas sur-entrainer un rseau de neurones
qui deviendra alors moins performant) (Moody and Darken, 1995).

2.3.4 Validation et Test


Alors que les tests concernent la vrication des performances d'un rseau de neurones
hors apprentissage et sa capacit de gnralisation, la validation est parfois utilise lors
de l'apprentissage (e.g : cas du early stopping). Une fois le rseau calcul, il faut toujours
procder des tests an de vrier que le rseau ragit correctement. Il y a plusieurs mthodes pour eectuer une validation : la cross validation, le bootstrapping... mais pour les
tests, dans le cas gnral, une partie de l'chantillon est simplement carte de l'chantillon
d'apprentissage et conserve pour les tests hors chantillons. Nous pouvons par exemple
utiliser 60% de l'chantillon pour l'apprentissage, 20% pour la validation et 20% pour
les tests. Dans les cas de petits chantillons, nous ne pouvons pas toujours utiliser une
telle distinction, simplement parce qu'il n'est pas toujours possible d'avoir susamment
de donnes dans chacun des groupes ainsi cres. Nous avons alors parfois recours des
procdures comme la cross-validation pour tablir la structure optimale du rseau (Hagan
et al., 1995).

2.4 Rseaux de neurones fonctions de bases radiales


Un rseau fonctions de bases radiales (RBF) est un rseau neurologique articiel qui
utilise des fonctions de bases radiales comme fonctions d'activation et dont la sortie est
une combinaison linaire. Leur proprits thoriques et pratiques ont t tudies en dtail
depuis la n des annes 80 (Moody and Darken, 1995). Ce type de rseau est employ
dans l'approximation de fonction, la prvision de srie chronologique et l'identication de
systmes.
Un rseau fonction de bases radiales est bas sur une architecture qui s'organise en
deux couches seulement ; une couche cache et une couche de sortie comme le montre la
Figure 1.2.
La couche cache, constitue des noyaux (ou neurones) RBF eectue une transformation non linaire de l'espace d'entre.
La couche de sortie calcule une combinaison linaire des sorties de la couche cache.
Chaque noyau lmentaire calcule la distance entre l'entre et son centre qu'il passe ensuite
dans une non linarit concrtise par une fonction d'activation qui est gnralement
de type gaussien.
La valeur que peut prendre la sortie du noyau gaussien est d'autant plus importante
que l'entre est plus proche de son centre et tend vers zro lorsque la distance entre-centre
devient importante.
11

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
La sortie du rseau RBF est donne par (Hagan et al., 1995) :
yk (x) =

N
X

(1.2)

akj j (x) + ak0

j=1

o sa fonction gaussienne est donne par la relation suivante


"

kxi j k2
j (x) = exp
2j2

(1.3)

||.|| dnote la norme euclidienne, x est le vecteur d'entre des lments xi , et j : le


vecteur dterminant les centres de la fonction j par rapport aux entres et est sa
largeur (cf. Figure 1.3). ak0 est le poids d'un neurone dont l'entre est toujours 1, appel

le biais (Hagan et al., 1995).

2.4.1 Apprentissage des rseaux de neurones RBF


L'apprentissage d'un rseau RBF consiste dterminer son architecture (le nombre
des fonctions radiales N ) et xer ses paramtres : centres, largeurs et poids. Gnralement nous dterminerons empiriquement la valeur de N en recourant des techniques de
validation croise.
L'apprentissage d'un rseau RBF est de type supervis : Nous disposons d'un ensemble
d'apprentissage constitu de m couples (vecteur d'entre, valeur cible) : (x1 ; yd1 ); ...; (xm ; ydm )
o xi Rd ; ydi R.
L'objectif de l'apprentissage est de minimiser une quantit J , donne par l'quation (1.4).
m

1X
(ydi yi (xi ))2
J=
n i=1

(1.4)

Une caractristique intressante des modles RBF est que nous pouvons diviser les paramtres en trois groupes : les centres , les largeurs et les poids a.
L'interprtation de chaque groupe permet de proposer un algorithme d'apprentissage
simple et performant (Hagan et al., 1995).
x1

a1

x2

a2
aN

xN x
Figure

yk

1.2: Architecture d'un rseau RBF.

12

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
= f (x)

Figure

1.3: Fonction gaussienne du rseau RBF.

2.4.2 Algorithmes d'apprentissage des rseaux RBF

Approche squentielle

Cette technique d'apprentissage propose ds la n des annes 1980 est trs couramment
utilise (Hagan et al., 1995). Elle consiste optimiser successivement les trois jeux de
paramtres (a, , ). Cette technique a l'avantage d'tre simple mettre en uvre, de
demander peu de calcul et de donner des rsultats acceptables. La solution obtenue n'est
cependant pas optimale.
Dans un premier temps, nous estimons les positions des centres et les largeurs
l'aide d'un algorithme de clustring de type k means. Une fois ces paramtres xs,
il est possible de calculer les poids optimaux a par une mthode de rgression linaire.
C'est certainement la simplicit et l'ecacit de cette mthode qui a fait le succs des
RBF (Moody and Darken, 1995).
En connaissant les centres et largeurs des fonctions gaussiennes, la sortie du rseau
donne en (1.2) devient :
y(x) =

N
X

akj j (kx j k , j ) =

j=0

N
X

aj hj (x).

(1.5)

j=0

Nous cherchons la solution a, le vecteur des poids minimisant la dirence  entre la sortie
estime et la sortie dsire. Nous avons donc un systme d'quations linaires qui s'crit
sous la forme matricielle :
Y = H
a + 
(1.6)
La matrice H , de dimension m N , donne les rponses des N centres RBF sur les m
exemples, Y est un vecteur regroupant les m sorties yi sur l'ensemble d'apprentissage, et
 est le vecteur d'erreur. Le critre optimiser est :
E = T 

13

(1.7)

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
Si nous ajoutons un terme de rgularisation de type ridge regression (Hoerl, 1962), qui
pnalise les solutions avec de grandes valeurs des poids, nous crivons :
E = T  + a
T a
.

(1.8)

La solution s'obtient par un calcul classique de pseudo-inverse, et s'crit :


a
= (H T H + I)1 H T Y

(1.9)

o I est la matrice identit de dimension m. Le paramtre doit tre dtermin par validation croise ou, de manire plus sophistique, en employant des mthodes baysiennes
de r-estimation (Orr, 1995)).

Rtro-propagation du gradient de l'erreur

L'algorithme de rtro-propagation du gradient de l'erreur t cre en gnralisant les


rgles d'apprentissage de Widrow Ho aux rseaux multicouches fonction d'activation
non linaire (Widrow and Lehr, 1990).
La rtro-propagation du gradient de l'erreur est utilise pour ajuster les poids et les
biais du rseau an de minimiser l'erreur quadratique entre la sortie du rseau et la sortie
relle (Widrow and Lehr, 1990).
A chaque couple entre/sortie, une erreur est calcule, le gradient, ou pente de l'erreur
est dtermin. Ensuite les poids et les biais sont modis sur le rseau. Nous ritrons ces
calculs jusqu' l'obtention du critre d'arrt.
Une alternative l'apprentissage squentiel dcrite dans la section prcdente consiste
optimiser les paramtres du modles RBF par descente de gradient, comme nous le
faisons pour d'autres modles connexionnistes. Il faut pour cela calculer les drives du
cot par rapport aux dirents paramtres. L'erreur d'un seul couple d'entre/sortie Ei =
1
(y y(xi ))2 et pour la fonction gaussienne de l'quation (1.3), les drives partielles
2 di
s'crivent sous la forme suivante (Orr, 1995) :
X
dEi
= aj (ydi
aj ij )ij
aj
j
X
kx j k2
dEi
(ydi
aj ij )ij
= aj
3
j
j
j
X
xki kj
dEi
=
a
(y

aj ij )ij
j
di
j2
kj
j

(1.10)

A partir de ces quations, nous pouvons mettre en uvre un algorithme d'apprentissage


standard de minimisation de l'erreur, en version batch (calcul de l'erreur sur l'ensemble
des exemple avant mise jour des paramtres) ou en ligne (mises jour aprs chaque
14

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
exemple, approche qui en gnral ore de meilleures performances). Il s'agit cependant
d'un problme non linaire, et l'algorithme d'apprentissage a de grandes chances de rester
bloqu dans un minimum local de la fonction cot. La russite de l'apprentissage dpend
donc beaucoup des conditions initiales (Widrow and Lehr, 1990).

3 Logique oue
3.1 Gnralits sur la logique oue
La logique oue (Fuzzy Logic) est une technique formalise en 1965 par Zadeh de
l'universit de Berkeley (Zadeh, 1965). Elle permet de traiter des variables logiques non
exactes dont la valeur peut varier entre 0 et 1. Elle se base sur la reprsentation et la
manipulation des connaissances imprcises, vagues et incertaines.
La logique oue associe un concept imprcis (concepts humains e.g. grand, chaud,...),
une fonction d'appartenance un ensemble. Gnralement, c'est une fonction numrique
continue qui exprime un point de vue subjectif d'une personne sur la variabilit du concept.
Il a t montr qu'une telle fonction est utile pour reprsenter l'inuence des modicateurs linguistiques, comme  trs, plus ou moins ,  peu  sur la signication des
concepts (Zadeh, 1965).

3.1.1 Variables linguistiques et ensembles ous


La description imprcise d'une certaine situation, d'un phnomne ou d'une grandeur
physique ne peut se faire que par des expressions relatives ou oues savoir : Quelque,
Beaucoup, Souvent, etc. Ces direntes classes d'expressions oues dites ensembles ous
forment ce que nous appelons des variables linguistiques. An de pouvoir traiter numriquement ces variables linguistiques (normalises gnralement sur un intervalle bien
dtermin appel univers de discours), il faut les soumettre une dnition mathmatique
base de fonctions d'appartenance qui montre le degr de vrication de ces variables linguistiques relativement aux dirents sous ensembles ous de la mme classe (Abraham,
2001). Un exemple est donn dans la Figure 1.4.
U (x)

Figure

Petit

Moyen

50

Grand

Temprature

1.4: Partition oue de la variable linguistique "Temprature".


15

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

3.1.2 Sous-ensembles ous


Les sous-ensembles ous sont une classe d'objet o la transition entre l'appartenance
et la non appartenance l'ensemble n'est pas abrupte mais graduelle. Un sous-ensemble
ou A, est dni par :
 Un intervalle convexe A de <, auquel est associ un label linguistique (e.g. "Petit","Moyen", "Grand").
 Une fonction relle UA (x) valeurs dans [0, 1], qui donne le degr d'appartenance
d'une variable x au sous-ensemble ou UA (x). Cette fonction modlise les situations
o un mme lment peut tre class dans plusieurs catgories avec des degrs
divers (Klir and Yuan, 1995).

3.1.3 Fonction d'appartenance


An de permettre un traitement numrique des variables linguistiques dans la prise
de dcisions oues sur calculateur, une dnition des variables linguistiques l'aide de
fonctions d'appartenance s'impose. Dans ce contexte, nous associons chaque valeur de
la variable linguistique une fonction d'appartenance dsigne par UA (x), qui sera dsigne
par le degr ou le facteur d'appartenance. Il est noter que l'ensemble des lments de
x pour lesquels UA (x) > 0, est appel support de A. Le plus souvent, nous utilisons
pour les fonctions d'appartenance les fonctions suivantes (cf. Figure 1.5) (Kartalopoulos,
2004) :
 Fonction triangulaire : Elle est dnie par trois paramtres a, b, c qui dterminent
les coordonnes des trois sommets.
U (x) = M ax(M in(

xa cx
,
), 0)
ba cb

(1.11)

 Fonction trapzodale : Elle est dnie par quatre paramtres a, b, c, d :


U (x) = M ax(M in(

cx
xa
, 1,
), 0)
ba
dx

(1.12)

 Fonction gaussienne : Elle est dnie par deux paramtres (, ) :


U (x) = exp(

(x )2
)
2 2

(1.13)

 Fonction sigmodale : Elle est dnie par deux paramtres a, c :


U (x) =

1
1 + exp(a(x c))

16

(1.14)

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

Figure

1.5: Formes usuelles des fonctions d'appartenance.

3.1.4 Base de rgles oues


Nous dnissons une rgle oue comme une proposition oue correspondant la mise
en relation de deux propositions oues par une implication (Abraham, 2001).
Une proposition oue est dite lmentaire, si elle n'est constitue que d'un prdicat de la
forme "X est A". La composition de deux ou plusieurs variables linguistiques constitue
une proposition oue. L'expression linguistique gnrale d'une rgle peut tre formalise
de la manire suivante :
si x est A alors y est B .
o A et B sont des sous-ensembles ous , x et y sont des variables linguistiques.
Nous appelons prmisse, la partie condition de la rgle ( x est A ) et conclusion, la seconde
partie (y est B ).
D'une manire gnrale, nous pouvons combiner des propositions oues de type "x est
A" par des oprateurs logiques de conjonction et de disjonction. Nous pouvons alors
construire des rgles oues plus complexes, dont la partie prmisse et la partie conclusion
correspondent une combinaison de propositions, par exemple (Rajasekaran and Pai,
2003) :
si x1 est A1 et x2 est A2 alors y est B .

3.2 Systme d'infrence oue


La Figure 1.6 illustre la structure gnrale du cur d'un systme d'infrence oue
deux entres et une sortie.
Nous pouvons noter que le calcul de la sortie y s'eectue partir de trois tapes
fondamentales (Abraham, 2001) :
 Une interface de Fuzzication ;
 Un mcanisme d'infrence (rgles) ;
 Une interface de Dfuzzication.

17

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
x1
x2

x1
x2

Fuzzication

Figure

Controleur ou

Mcanisme d'infrence

Defuzzication

1.6: Structure interne d'un systme d'infrence oue.

3.2.1 Fuzzication
La fuzzication est la traduction des valeurs numriques relatives aux entres du systme en termes d'appartenances des sous ensembles ous pour pouvoir appliquer les
rgles. A une variable, nous associons les degrs d'appartenances correspondant chaque
sous ensemble ou (ce qui dpend bien sur de la description oue adopte) (Klir and
Yuan, 1995).

3.2.2 Infrence oue


L'infrence oue est l'application de la caractrisation symbolique du systme aux
rgles oues et la dduction d'un certain nombre de rsultats locaux ; galement exprims
sous forme symbolique concernant les variables de sortie du systme. Le but de cette tape
est d'arriver dterminer des sorties oues ; en partant d'entres oues et en utilisant une
base de rgles (Wang, 1994).
Pour pouvoir utiliser cette base de rgles, nous avons besoin de trois oprateurs, mathmatiques, pour raliser la conjonction (ET), l'implication (Si . . . Alors) et l'agrgation
(Sinon).

3.2.3 Dfuzzication
Elle a pour but l'obtention d'une valeur numrique pour chaque variable de sortie
partir des valeurs de sortie des direntes rgles. Parmi les nombreuses possibilits pour
raliser cette tape, nous pouvons citer (Rajasekaran and Pai, 2003) :
 La mthode du centre de gravit :
C'est la mthode de dfuzzication la plus courante. L'abscisse du centre de gravit
de la fonction d'appartenance rsultant de l'infrence correspond la valeur de sortie
du rgulateur.
n
P

y0 =

Ui (yi )yi (i)

(1.15)

i=1
n
P
i=1

18

Ui (yi )

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
Il apparat que plus la fonction d'appartenance rsultante est complique, plus le
processus de dfuzzication devient long et coteux en temps de calcul (Wang,
1994).
 La mthode de la moyenne des maxima :
Les points ou la fonction d'appartenance rsultante atteint son maximum sont
concerns.
y0 =

l
X
yi
i=1

(1.16)

3.3 Contrleurs ous


La commande oue est une application de la logique oue au contrle des systmes
dynamiques pour lesquels nous ne possdons pas de modle satisfaisant. Son principe est
simple, il s'agit dans la plupart des cas d'imiter le comportement d'un oprateur humain
dans la rgulation d'un processus complexe l'aide de rgles oues. Cette mthode de
conduite de processus est mise en uvre grce un dispositif appel usuellement "contrleur ou".
Un contrleur ou est un systme d'infrence ou employ dans la technique d'automatisation. Son but est de trouver une valeur numrique appliquer au systme partir d'un
jeu de variables physiques. Les principaux types de contrleurs qui ont t dvelopps
portent le nom des chercheurs qui les ont propos, il s'agit du contrleur de Mamdani et
du contrleur de Sugeno. Pour exposer le principe de fonctionnement de chacun d'eux,
nous considrons l'exemple d'une base de rgles de la forme (Wang, 1994) :
Rgle i : si x1 est Ai et x2 est Bi Alors y est Ci . O Ai , Bi et Ci sont des sous-ensembles
ous.

3.3.1 Mthode de Mamdani


La mthode de Mamdani est historiquement la premire avoir t propose, elle
repose sur le raisonnement suivant (Mamdani and Assilian, 1975) :
 Calcul de la valeur de vrit de chaque rgle :
i (x) = M in(UAi (x1 ), UBi (x2 ))

(1.17)

 Calcul de la contribution de chaque rgle :


i (y) = M in(i (x), UCi (y))

(1.18)

(y) = M ax(i (y))

(1.19)

 L'agrgation des rgles :


 La dfuzzication pour obtenir une conclusion  nette .
19

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

3.3.2 Mthode de Takagi-Sugeno


Cette mthode a t propose par Takagi-Sugeno (Takagi and Sugeno, 1985), elle se
caractrise par une sortie non oue des rgles. A chaque rgle, nous associons une sortie
dnie sous forme numrique comme tant une combinaison linaire des entres. Les rgles
utilises d'ordre zro sont du type
Rgle i : si x1 est A1 et x2 est A2 et ... xn est An et Alors yi = C1 x1 + C2 x2 ... + Cn xn .
o les valeurs Cj sont des valeurs relles (non oues).
Cette mthode se base sur le raisonnement suivant :
 Calcul de la valeur de vrit de chaque rgle :
i =

n
Y

Aj

(1.20)

j=1

 Calcul de la sortie du systme d'infrence ou :


n
P

y=

i y i

i=1
n
P

(1.21)
i

i=1

i reprsente ici le degr de vrit de chaque rgle. Les systmes d'infrence ou de

type Sugeno permettent une meilleure reprsentation des fonctions numriques et des
mcanismes d'infrence plus rapides (Takagi and Sugeno, 1985).
Il a t montr exprimentalement que, pour un objectif de commande de processus,
la mthode de Sugeno donnait des rsultats trs voisins de celle de Mamdani tout en
permettant une rduction sensible du temps de calcul (Klir and Yuan, 1995).

4 Optimisation et Algorithmes volutionnaires


4.1 Optimisation
4.1.1 Dnition
L'optimisation est l'art de comprendre un problme rel, de pouvoir le transformer
en un modle mathmatique que nous pouvons tudier an d'en extraire les proprits
structurelles et de caractriser les solutions du problme (Paschos, 2005).

4.1.2 Problme d'optimisation


Un problme d'optimisation consiste trouver parmi un ensemble de solutions potentielles celle qui rpond le mieux certains critres dcrits sous forme d'une fonction
objectif maximiser ou minimiser.
20

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
Mathmatiquement, un problme d'optimisation s'crit sous la forme :
Minimiserfi (x), i = (1, . . . M )
x Rn avec x = (x1 , x2 . . . xn )
Sujet

(1.22)

j (x) = 0, j = (1, . . . J)
k (x) 0, k = (1, . . . K)
x est un vecteur lments rels ou entiers de dimension n. Ses composantes xi sont

appeles variables de dcision, elles peuvent tre continues ou discrtes, dans ce dernier cas,
nous parlerons alors d'optimisation combinatoire. Les valeurs possibles des xi reprsentent
l'espace de recherche not S dans Rn .
La fonction fi (x) avec (i = 1, 2, . . . , M ) est appele la fonction cot, la fonction conomique ou la fonction objectif. Elle attribue chaque instance de l'espace de recherche
une valeur. Les ingalits j et k sont appeles les contraintes du problme, qui peuvent
tre linaires ou non linaires.
Pour un problme de minimisation, l'objectif est de rechercher les vecteurs qui minimisent la fonction f tout en respectant les contraintes reprsentes par les fonctions j
et k .
Si M = 1, le problme est un problme d'optimisation mono-objectif et si K = J = 0,
le problme tudi serait un problme d'optimisation sans contraintes. Dans ce type de
problmes, l'optimisation peut s'eectuer en tout point de l'espace de recherche.
Les problmes qui n'ont pas de critre d'optimisation, mais qui possdent un ensemble
de contraintes sont des problmes de satisfaction de contraintes.
L'ajout d'un critre un problme d'optimisation mono-objectif cre un problme
d'optimisation combinatoire avec contraintes. Ce dernier est trs important puisque la
majorit des problmes d'optimisation le sont.
Un problme d'optimisation se dnit alors comme la recherche de l'optimum d'une
fonction donne. Les variables de cette fonction sont souvent contraintes d'voluer dans
une certaine partie de l'espace de recherche (Mitchell, 1998). Cette fonction a des optima
locaux et globaux :
Le voisinage d'une solution x est un sous-ensemble de solutions appartenant S
(l'ensemble des solutions possibles) atteignable partir d'une transformation V (x).
Nous pouvons dire qu'une solution x0 est voisine d'une solution x, si x0 V (x).
L'application V est appele structure de voisinage.
Un point x est appel minimum global de la fonction f si :
x, x 6= x f (x ) < f (x)
Un point x est appel minimum local fort de la fonction f si (Paschos, 2005) :
x V (x ), x 6= x f (x ) < f (x)

21

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
Un point x est appel minimum local faible de la fonction f si (cf. Figure 1.7) :
x xV (x ), x 6= x f (x ) f (x)

Il est noter que pour les problmes de maximisation, il sut de multiplier la fonction
cot par (-1).

4.2 Mthodes d'optimisation


Gnralement, pour rsoudre un problme d'optimisation combinatoire, nous utilisons
les mthodes exactes mais lorsque nous sommes confronts un problme dicile nous
avons recours aux mthodes approches, dans ce cas le choix est parfois possible entre
une heuristique spcialise, ddie au problme considr, et une mta-heuristique qui est
une mthode gnrale (Mitchell, 1998).
Parmi les mta-heuristiques, nous pouvons direncier les mta-heuristiques base de
voisinage, et les mta-heuristiques base de population et enn les mthodes hybrides
qui associent souvent une mta-heuristique et une mthode locale.
f (x)

Minimum local
Minimum global

Figure

1.7: Optimum local et global d'une fonction.

4.2.1 Mthodes exactes


Les mthodes exactes sont des mthodes qui garantissent la compltude de la rsolution. Autrement dit ces mthodes donnent tous les coups la solution optimale. Le temps
de calcul ncessaire de telles mthodes augmente en gnral exponentiellement avec la
taille du problme rsoudre. Il faut tre conscient que ces mthodes peuvent prendre
beaucoup de temps, surtout lorsque les problmes sont de grande taille (Paschos, 2005).

22

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

4.2.2 Mthodes approches


Contrairement aux mthodes exactes, les mthodes approches ne procurent pas forcment une solution optimale, mais seulement une bonne solution (de qualit raisonnable)
en un temps de calcul aussi faible que possible. Une partie importante des mthodes
approches est dsigne sous le terme de mta-heuristiques qui sont des mthodes gnriques pouvant optimiser une large gamme de problmes dirents, sans ncessiter de
changements profonds dans l'algorithme employ (Mitchell, 1998).
Plusieurs classications des mta-heuristiques ont t proposes ; la plupart distinguent
globalement entre trois catgories : les mthodes base de solution courante unique, qui
travaillent sur un seul point de l'espace de recherche un instant donn, appeles mthodes
base de voisinage comme la mthode de la descente, le recuit simul et la recherche tabou,
et les mthodes base de population, qui travaillent sur un ensemble de points de l'espace
de recherche, comme les algorithmes volutionnaires et les colonies de fourmis. Enn, les
mthodes hybrides (Mitchell, 1998)(cf. Figure 1.8).

4.2.3 Mthodes base de voisinage


Dans les problmes d'optimisation o nous cherchons optimiser une fonction objectif
sur un espace de recherche donn, une petite perturbation sur un point de cet espace induit
souvent une petite variation des valeurs de la fonction objectif en ce point. Sachant que les
bonnes solutions sont souvent dans le voisinage d'autres bonnes solutions, l'ide est qu'une
bonne stratgie consisterait se dplacer travers l'espace de recherche en eectuant de
petits pas dans des directions qui amliorent la fonction objectif. Cette ide est la base
d'une grande famille d'algorithmes appele mthodes base de voisinage ou de recherche
locale (Paschos, 2005).
Ces mthodes s'appuient toutes sur un mme principe : elles rsolvent le problme
d'optimisation de manire itrative. Elles dbutent avec une solution initiale (souvent
un tirage alatoire dans l'espace de recherche), et ralisent ensuite un processus itratif
qui consiste eectuer un mouvement choisi par le mcanisme d'exploration en tenant
compte de la fonction cot. Ce processus s'arrte et retourne la meilleure solution trouve
quand la condition d'arrt est ralise. Cette condition peut porter sur le nombre d'essais
eectus, sur une limite temporelle ou sur le degr de qualit de la meilleure conguration
courante. Cette versatilit permet de contrler le temps de calcul, la qualit de la solution
optimale trouve s'amliorant au cours du temps.
Les mthodes de voisinage dirent essentiellement entre elle par le voisinage utilis
et la stratgie de parcours de ce voisinage (Mitchell, 1998).

23

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
Mta-heuristiques

Mthodes
base de populations
Figure

Mthodes de voisinage

Mthodes hybrides

1.8: Classication des mta-heuristiques.

4.2.4 Mthodes base de population


Dans le domaine de l'optimisation combinatoire, la complexit des phnomnes naturels a servi de modle pour des algorithmes toujours plus sophistiqus constituant ainsi
la base d'un nouveau champ de la programmation informatique en pleine eervescence.
Les mthodes base de population comme leur nom l'indique, travaillent sur une
population de solutions et non pas sur une solution unique comme dans les mthodes
base de voisinage. Nous pouvons distinguer deux grandes classes de ces techniques :
Les algorithmes volutionnaires inspirs des concepts issus de la thorie de l'volu-

tion naturelle de Darwin, un exemple typique de ces algorithmes nous trouvons les
algorithmes gntiques.
Les algorithmes inspirs de l'thologie (l'tude du comportement des diverses espces

animales) comme les colonies de fourmis (Mitchell, 1998).

4.2.5 Mthodes hybrides


Le mode d'hybridation qui semble le plus fcond concerne la combinaison entre les
mthodes de voisinage et les approches d'volution. L'ide essentielle de cette hybridation
consiste exploiter pleinement la puissance de recherche des mthodes de voisinage et de
recombinaison des algorithmes volutifs sur une population de solutions.
Un tel algorithme utilise une ou plusieurs mthodes de voisinage sur les individus
de la population pendant un certain nombre d'itrations ou jusqu' la dcouverte d'un
ensemble d'optima locaux et invoque ensuite un mcanisme de recombinaison pour crer
de nouveaux individus (Jog et al., 1991).
Les algorithmes hybrides sont sans doute parmi les mthodes les plus puissantes.
Malheureusement, les temps de calcul ncessaires peuvent devenir prohibitifs cause du
nombre d'individus manipuls dans la population. Une voie pour rsoudre ce problme
est la paralllisation de ces algorithmes sur des machines parallles ou sur des systmes
distribus (Verhoeven and Aarts, 1995).

24

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

5 Algorithmes volutionnaires

Les algorithmes volutionnaires (Evolutionnary algorithms) sont des techniques d'optimisation stochastiques itratives, inspires de la thorie de l'volution naturelle de Darwin pour rsoudre des problmes divers, souvent d'optimisation. Ils simulent un processus
d'volution sur une population d'individus, dans le but de les faire voluer vers les optima
globaux du problme considr (Paschos, 2005).
Le fonctionnement d'un algorithme volutinnaire repose sur trois composants :
1- Une population constitue de plusieurs individus reprsentant des solutions candidates du problme d'optimisation.
2- Une fonction d'adaptation pour valuer la performance d'un individu (fonction
cot).
3- Un mcanisme d'volution de la population compos de plusieurs oprateurs de
modication et de slection permettant d'liminer certains individus et d'en crer de
nouveaux.
Le cycle d'volution d'un algorithme volutionnaire dbute avec une population initiale
gnre de faon alatoire puis rpte la procdure suivante (cf. Figure 1.9) :
1- Mesurer la qualit de chaque individu de la population par le mcanisme d'valuation,
2- Slectionner une partie des individus,
3- Produire de nouveaux individus par recombinaisons des individus slectionns (Mcanisme d'volution).
Ce processus se termine quand la condition d'arrt est vrie (Mitchell, 1998).
D'une manire gnrale, nous pouvons distinguer trois grandes classes d'algorithmes
volutionnaires : les algorithmes gntiques, la programmation volutive et les stratgies
d'volution. Ces mthodes se direncient par leur manire de reprsenter l'information
et par leur faon de faire voluer la population d'une gnration l'autre.

5.1 Importance de la diversit


Dans le cas de certains problmes diciles, l'algorithme peut trs bien ne jamais
converger vers une solution satisfaisante. Soit parce que celle-ci est trop dicile atteindre
(temps de convergence inni), soit parce que l'algorithme converge prmaturment vers
un optimum local et ne peut plus sortir.
Pour pallier ce problme, plusieurs ides ont t implmentes. L'une d'elles est
l'introduction d'un objectif de diversit soit en slectionnant les solutions sur un critre de
nouveaut seulement o en optimisant un critre de diversit en mme temps que la tness.
Ceci est possible en utilisant un algorithme volutionnaire multi-objectifs (Mitchell, 1998).

25

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
Gnration de la
Population initiale
Evaluation

Fin

Oui

Arrt ?
Non
Slection

Evolution
Figure

1.9: Principe gnral d'un algorithme volutionnaire.

5.2 Exploitation et exploration


Les performances des algorithmes volutionnaires sont conditionnes par les notions de
l'exploitation et de l'exploration et comment trouver un bon compromis entre elles (Crepinsek et al., 2013).
L'exploitation (Intensication) insiste sur la capacit d'une mthode de voisinage

d'examiner en profondeur des zones de recherche particulires.


L'exploration (Diversication) met en avant la capacit de dcouvrir de nouvelles

parties prometteuses de l'espace de recherche.


Les mthodes de voisinage reposent sur l'hypothse que les zones les plus prometteuses
sont situes proximit des meilleures solutions (dj visites). Le principe d'exploitation
consiste examiner en priorit ces zones (Crepinsek et al., 2013).
Dans les algorithmes volutionnaires, la slection a pour eet de concentrer la recherche
autour des congurations de meilleure performance.
L'application du seul principe d'exploitation ne permet pas une recherche ecace. En
eet, l'exploitation conduit conner la recherche dans une zone limite qui nit par
s'puiser. Une illustration souvent voque est fournie par le problme de convergence
prmature des algorithmes volutionnaires. Du fait de la slection, la population nit
par n'tre constitue que d'individus tous similaires. L'une des proccupations majeures
dans les algorithmes volutionnaires consiste d'ailleurs prserver le plus longtemps possible une diversit susante dans la population. Face ce type de dicult, la solution
26

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
consiste diriger la poursuite de la recherche vers de nouvelles zones, i.e., recourir
l'exploration (Crepinsek et al., 2013).
Pour cela, deux stratgies principales sont employes dans le but d'explorer un espace
de recherche :
La premire stratgie qui est aussi la plus simple consiste introduire des perturbations
alatoires : c'est le cas pour les mutations alatoires dans les algorithmes gntiques ainsi
que pour la gnration alatoire d'un voisin.
La deuxime stratgie pour explorer consiste mmoriser au cours de la recherche des
caractristiques des rgions visites et introduire un mcanisme permettant de s'loigner
de ces zones. C'est ce que fait la mthode tabou avec la liste tabou.
La recombinaison constitue un autre principe gnral qui complte l'exploitation et
l'exploration. Elle consiste construire de nouvelles congurations en combinant la structure de deux ou plusieurs bonnes congurations dj trouves (Crepinsek et al., 2013).

6 Commande des systmes non linaires


6.1 Reprsentation des systmes non-linaires
Un phnomne est dit non linaire lorsque ses grandeurs caractristiques relies entre
elles ne varient pas proportionnellement l'une l'autre. Son comportement peut alors
tre dcrit par une expression, un modle ou des quations faisant intervenir les variables
autrement qu'au premier degr (Slotine and Li, 1991).
Aucun systme physique n'est compltement linaire, les mthodes linaires ne sont
donc applicables que dans un domaine de fonctionnement restreint. Certains systmes
sont impossibles modliser, mme localement, des systmes linaires (Slotine and Li,
1991).
La reprsentation gnrale d'un systme non linaire est de la forme (1.23) :
(

x = f (x) + g(x)u(t)
y = h(x)

(1.23)

O y est la sortie du systme, x est le vecteur d'tat et u est le vecteur de commande.


f (x), g(x) et h(x) sont des fonctions non linaires du vecteur d'tat dcrivant le systme (Lewis et al., 1993).

6.2 Commande des systmes


La commande est l'ensemble des oprations qui amnent automatiquement un procd
d'un tat particulier un autre tat dsir yd (t) (Lewis et al., 1993).
Un systme command est soumis des perturbations et des variations de paramtres,
tel que les frottements, vent, ou des bruits de mesure (cf. Figure 1.10).
27

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
Les signaux utiliss dans la gure sont :
yd (t) : consigne ou signal de rfrence (reference).
y(t) : signal de sortie ou rponse (plant output).
e(t) : erreur de suivi (controller input/tracking error).
u(t) : signal de commande (controller output)
we (t) : perturbation de la commande (plant input disturbance).
ws (t) : perturbation de la sortie (plant output disturbance).
n(t) : bruit de mesure (measurement noise).

Si la consigne yd (t) est constante dans le temps, nous parlerons de rgulation sinon la
commande est un asservissement ou poursuite de trajectoires.
La commande d'un systme a pour objectif d'atteindre les performances suivantes :
1. Stabilit Nous disons d'un systme qu'il est stable si toute entre borne (en
amplitude) il rpond par une sortie borne (Slotine and Li, 1991).
2. Robustesse
Elle est sans doute le paramtre le plus important et le plus dlicat. Nous disons
qu'un systme est robuste si la rgulation fonctionne toujours mme si le modle
change un peu. Un rgulateur doit tre capable d'assurer sa tche mme avec ces
changements an de s'adapter des usages non prvus/tests (drive de production,
vieillissement mcanique, environnements extrmes) (Johnson and Moradi, 2005).
3. Rapidit
Elle dpend du temps de monte et du temps d'tablissement du rgime stationnaire.
Temps de rponse (Tr ) : Thoriquement, le temps de rponse est le temps

ncessaire pour que le rgime transitoire ait totalement disparu. Toutefois en


pratique, nous convenons, en fonction de la prcision exige que c'est le temps
au bout duquel la rponse du systme pntre dans le couloir de plus ou moins
5% de la valeur nale sans en sortir (Johnson and Moradi, 2005).
Temps de monte (Tm ) : Temps pour lequel la rponse atteint pour la premire

fois la valeur nale. Il caractrise la vitesse de raction du systme aux premiers


instants (Johnson and Moradi, 2005).
4. Prcision
Elle est caractrise par :
Erreur statique (es (t)) : Elle est dnit par l'cart entre la consigne et la sortie
lorsque le systme est en rgime stationnaire (t ) (Johnson and Moradi,

2005).
28

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
(1.24)

es (t) = lim (y(t) yd (t)).


t

Dpassement (Omax ) : en pratique il est recommand pour avoir un systme

agile un dpassement de 10% (Johnson and Moradi, 2005).


Omax =

ymax y
.
ymax

(1.25)

we (t)

yd (t)

e(t)

Commande

u(t)

ws (t)

Systme

y(t)

P
n(t)
Figure

1.10: Bloc de commande d'un systme non linaire.

6.2.1 Commande proportionnelle, intgrale et drive


La commande proportionnelle, intgrale et drive (PID) est une mthode de rgulation souvent employe pour les asservissements (cf. Figure 1.11). Les applications du PID
sont extrmement nombreuses et varies et surtout dans les procds industriels (Johnson and Moradi, 2005). La commande PID est la somme de trois actions, proportionnelle,
intgrale et drive, elle est donne par la relation (1.26) :
Z
u(t) = Kp e(t) + Kd e(t)
+ Ki

(1.26)

e(t)dt.

Kp , Kd et Ki sont des gains constants dterminer.

P
yd (t)

e(t)

Kp e(t)

I Ki e(t)dt
R

+
+ P u(t)

Systme

Figure

Kd e(t)
dt

1.11: Architecture d'un contrleur PID.


29

y(t)

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

Rglage d'un PID :


Il consiste dterminer les gains du PID an d'obtenir une rponse adquate du
procd, l'objectif est d'tre robuste, rapide et prcis. Il faut pour cela diminuer le temps
de monte, liminer l'erreur statique et diminuer le dpassement maximum (Johnson and
Moradi, 2005). L'inuence des trois gains d'un PID sur ces performances est reprsente
dans la Table 1.1 (Johnson and Moradi, 2005).
Il existe des mthodes analytiques permettant de calculer les composantes du correcteur PID, mais elles sont assez complexes et sont peu utilises pour les systmes non
linaires.
Des mthodes empiriques existent pour les systmes linaire et elles permettent de
faciliter amplement la dtermination des gains du rgulateur PID comme la mthode de
Ziegler-Nichols et mthode de Chien-Hrones Reswick. Le problme est que ces mthodes
n'ont pas prouv leurs ecacit pour les systmes non-linaires (Johnson and Moradi,
2005).
Table

1.1: Paramtres du PID

Paramtre Temps de monte Dpassement Temps de rponse Erreur Statique


Kp
Augmente
N'inue pas
Augmente
Diminue
Ki
Diminue
Augmente
Augmente
limine
Kd
N'inue pas
Diminue
Diminue
N'inue pas

6.2.2 Commande sliding mode


La commande sliding mode est une stratgie de commande structure variable (Slotine
and Li, 1991). Le principe de ce type de commande consiste ramener la trajectoire d'tat
vers une surface et de la faire voluer au dessus avec une certaine dynamique jusqu'au
point d'quilibre. La surface considre est alors dsigne comme tant la surface de
glissement ou de commutation. Le comportement dynamique rsultant, appel rgime
glissant idal, est compltement dtermin par les paramtres et les quations dnissant
la surface. L'avantage d'obtenir un tel comportement est double : d'un ct, nous avons
une rduction de l'ordre du systme, et d'autre part, le rgime glissant est insensible aux
perturbations intervenant dans les mmes directions que les entres (Shaei, 2010).
Le principe de l'algorithme d'une commande sliding mode est indiqu dans la Figure 1.12

30

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
f(x), g(x)
xd (t)

Commande
quivalente

e(t)

s = e + e

Figure

ue (t) +

u(t)

Systme

x(t)

+
uc (t)

Ksign(s)

1.12: Schma de la commande sliding mode.

Synthse de la commande sliding mode :


Considrant un systme non linaire avec perturbations dcrit par l'quation (1.27) :
x = f (x) + g(x)u(t) + d(t).

(1.27)

Avec x(t) :le vecteur d'tat, f (x) et g(x) des fonctions non linaires dcrivant le systme
et d(t) reprsente les perturbations externes.
L'objectif est de trouver une loi de commande tel que, tant donn une trajectoire dsire
xd (t), l'erreur de poursuite e(t) tend vers zro malgr la prsence des perturbations.
L'erreur de poursuite est dnie par (Slotine and Li, 1991) :
e(t) = x(t) xd (t).

(1.28)

Slotine (Slotine and Li, 1991) a propos une forme gnrale qui consiste dnir une
fonction scalaire des surfaces de glissement dans le plan de phase dans le but d'assurer la
convergence d'une variable d'tat x(t) vers sa valeur de consigne xd (t). Cette fonction est
donne par l'quation :
s = e + e
(1.29)
o est un scalaire qui reprsente la pente de la surface de glissement.
Une fois la fonction de commutation tablie, le problme de la poursuite ncessite la
conception d'une loi de commande tel que le vecteur d'erreur e(t) reste sur la surface de
glissement s = 0 pour tout t 0 (Slotine and Li, 1991).
La loi de commande par mode glissant est alors dnit par l'addition de deux commandes, la commande quivalente ue (t) et la commande corrective uc (t) (quation (1.30)) :
u(t) = ue (t) + uc (t)

31

(1.30)

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

Commande quivalente La commande continue, dduite de s = 0, est appele commande quivalente ue . Son rle est de ramener le systme vers la surface de glissement,
elle est donne par la relation (1.31) (Slotine and Li, 1991) :
ue (t) =

1
[f (x) + xd (t) x(t) + x d (t) d(t)]
g(x)

(1.31)

Commande corrective La commande corrective est responsable de garder le systme


sur la surface s, elle est donne par la relation suivante (Slotine and Li, 1991) :
uc (t) = K.sign(s)

(1.32)

Sachant que sign(.) est la fonction signe et K est une constante positive qui reprsente le
gain de la commande discontinue. Il est choisi assez grand pour compenser les perturbations d(t).

6.2.3 Limites de la commande sliding mode


La commande sliding mode soure de deux inconvnients majeurs :
La connaissance exacte et priori du modle du systme est ncessaire pour obtenir

de bonnes performances de la commande. En eet, la partie quivalente de la commande sliding mode a pour rle de ramener le systme vers la surface, cette partie
est constitue essentiellement des fonctions non linaires du modle f (x) et g(x) (cf.
quation (1.31)).
Si le systme prsente des incertitudes ou des variations dans les paramtres, les
performances de la commande quivalente se trouveront diminues (Slotine and Li,
1991).
L'utilisation du terme sign(.) dans le signal de commutation avec de grandes valeurs
du gain K (quation (1.32)) provoque le phnomne de chattering qui peut exciter

les hautes frquences et dtriorer le systme command. Ce phnomne est prsent


dans la Figure 1.13.
Une mthode qui permet de rduire l'eet du chattering est de remplacer la fonction
discontinue sign par une fonction de saturation, qui consiste dterminer une bande
limite autour de la surface de glissement ainsi assurant le lissage de la commande
et le maintient de l'tat du systme dans cette bande.

32

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

7 Intelligence computationnelle dans la commande


sliding mode

Plusieurs auteurs ont essay de fusionner les techniques de l'intelligence computationnelle et la commande sliding mode an d'attnuer les problmes rencontrs dans
les implmentations pratiques de la commande.
Trois techniques principales de l'intelligence computationnelle ont t combines
avec la commande sliding mode : les rseaux de neurones, la logique oue et les
algorithmes volutionnaires en particulier les algorithmes gntiques.
e

e
s

Figure

1.13: Exemple de chattering.

7.1 Application des rseaux de neurones dans la commande sliding mode


L'intgration des rseaux de neurones dans un contrleur sliding mode peut tre classe
en deux catgories principales :
1) Utilisation des rseaux de neurones dans la boucle de retour du contrleur sliding
mode en parallle pour calculer la commande quivalente ;
2) Utilisation des rseaux de neurones pour l'adaptation des paramtres de la commande sliding mode.

7.1.1 Architectures parallles


Dans la littrature, divers schmas sont proposs pour l'utilisation des rseaux de
neurones avec un contrleur sliding mode soit en parallle pour liminer l'eet chattering,
33

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
ou pour calculer la partie quivalente de la commande .
Nanmoins, seule une valeur approximative peut tre calcule pour des systmes connus
en partie ou incertains. Le calcul de la partie quivalente par rseaux de neurones peut
tre une bonne solution pour ce genre de systme. Dans la littrature, les architectures
suivantes sont utilises en masse :
(A) Architecture Neuro-sliding mode : (Ertugrul and Kaynak, 2000) ont propos
une approche Neuro-sliding mode control o deux rseaux neuronaux sont utiliss
en parallle pour raliser la commande quivalente et corrective de la commande
sliding mode (cf. Figure 1.14).
L'entre du premier rseau est constitue de l'tat dsir et la position actuelle
tandis que l'entre du deuxime rseau est la surface s.
xd (t)

Rseau 1

ue (t)

+
P u(t)
+
P e(t)

Rseau 2

uc (t)

Robot

y(t)

Adaptation

Figure

1.14: Architecture neuro-sliding mode control (Ertugrul and Kaynak, 2000).

(B) Rseaux de neurones pour la commande quivalente du contrleur sliding

mode :

L'utilisation d'un rseau de neurones pour le calcul du terme de la commande quivalente d'un contrleur sliding mode est galement propose par (Jezernik et al.,
1997). Dans leur approche, reprsente sur la Figure 1.15, un dispositif de commande sliding mode inspir de (Sabanovic et al., 1996) est utilis en parallle avec
un rseau de neurones pour obtenir une commande robuste. Les entres du rseau
sont slectionnes comme le sinus des positions angulaires dsires, les vitesses dsires, les erreurs en position, et les erreurs en vitesse.
Un algorithme d'apprentissage de type gradient est propos pour adapter les poids
du rseau pour minimiser la fonction cot : J = 12 (Ks + s)
2.

34

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
Estimateur

xd (t)

s + s

+P

Reseau

u(t)

x(t)

Robot

+
+P

e(t)

Feedback

Figure

1.15: Architecture propose par (Jezernik et al., 1997).

(C) Autres architectures neuronales :


Une autre architecture est propose par (Kim and Oh, 1995) pour une classe des
systmes dynamiques non linaires. L'architecture de base est reprsente sur la
Figure 1.16.
Le procd utilise une architecture de commande hybride dans lequel le rseau de
neurones rapproche les non-linarits l'aide des donnes d'entres-sorties et les
erreurs de suivi du systme. Le contrleur sliding mode utilis en parallle assure
la stabilit uniforme avant que le contrleur neuronal a eu assez de temps pour
apprendre le systme dynamique. Un contrleur retour d'tat linaire proportionnel et driv (PD) est galement utilis pour viter l'eet chattering du contrleur
sliding mode.
PID
m

Sliding

+ + u(t)
+

Systeme

xd (t)

m-1

Rseau NN

x(t)

1-m
e(t)

Figure

Rseau NN

1.16: Architecture propose par (Kim and Oh, 1995).

35

x(t)

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

7.1.2 Rseaux de neurones pour l'adaptation des paramtres du contrleur


Dans cette section, un rsum est prsent des approches observes dans la littrature sur l'utilisation des rseaux de neurones pour le rglage des paramtres du
contrleur sliding mode tels que la pente de la surface de glissement et K le gain
du rgulateur.
Un exemple est propos par (Karakasoglu and Sundareshan, 1995) dans lequel un rseau de neurones est d'abord form apprendre les dynamiques inverses du systme
et utilis ensuite comme un contrleur latral en cascade avec le systme command
(cf. Figure 1.17).
Un rseau de neurones rcurent avec une couche cache est propos pour ajuster le
gain du contrleur pour maintenir le systme sur la surface de glissement (Psaltis
et al., 1988).
G
xd (t)

Figure

e(t)

Rseau Rccurent

Sliding mode

u(t)

Robot

x(t)

1.17: Architecture propose par (Karakasoglu and Sundareshan, 1995).

7.2 Application de la logique oue dans la commande sliding


mode
L'intgration d'un systme ou dans une commande sliding mode est considre dans
de nombreux exemples o une tentative de rsoudre les dicults de mise en uvre de la
commande sliding mode est faite via l'ajout du systme ou.
Quelques architectures sont cites dans ce qui suit ou nous pouvons les classer en des
approches indirectes ou la logique oue joue un rle secondaire dans la conception du
contrleur sliding mode et des approches directes ou le contrleur sliding mode est conu
sur la base d'un contrleur ou.

7.2.1 Approches indirectes


Dans les approches indirectes, la logique oue est utilise pour remplir une fonction
secondaire ( rglage des paramtres, limination du chattering).

36

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
(A) Logique oue pour le rglage des paramtres de la commande sliding

mode :

Les eets des paramtres de conception sur les performances du systme sont trs
clairs. Par exemple, le paramtre dtermine la pente de la surface de glissement
et, par consquent, plus il est grand, plus rapide sera la rponse du systme , mais
une trop grande valeur de ce paramtre peut entraner l'instabilit.
(Erbatur et al., 1996) ont suivi une telle approche pour le contrle de trajectoire d'un
robot manipulateur. Les entres du contrleur oue utilis sont la valeur absolue de
l'erreur de position, la valeur absolue de la surface de glissement s, et une variable
dnie comme la variation cumulative du chattering. Le systme d'adaptation oue
dlivre les valeurs de et le gain K .
Dans (Choi and Kim, 1997) un contrleur sliding mode oue temps discret est mis
en uvre pour le contrle des vibrations avec un actionneur lm pizolectrique.
(B) Logique oue pour la modlisation des incertitudes :
Un certain nombre de chercheurs ont propos d'utiliser la logique oue dans ce
contexte.
Par exemple, dans (Chen and Chen, 1998), une architecture oue est utilise de
faon adaptative pour modliser les non-linarits des systmes qui ont des incertitudes inconnues.
Dans le schma propos, la limite de l'erreur de modlisation qui rsulte de l'erreur
entre le systme ou et le systme non linaire rel (pendule invers) est identie
d'une manire adaptative. En utilisant cette borne, un signal de commande sliding
mode est calcul. L'approche propose dans (Yu et al., 1998) est similaire.
L'utilisation des approximateurs ous (Wang, 1994) dans la modlisation des incertitudes est galement connue dans la littrature. Par exemple, dans (Yoo and
Ham, 1998), deux contrleurs adaptatifs sliding modes avec deux systmes ous
(approximateurs)sont conus.
(C) Complmentarit entre un contrleur ou et un contrleur sliding mode :
Certaines approches observes dans la littrature comprennent des systmes ous
comme contrleurs complmentaires aux contrleurs sliding mode. Tout d'abord, la
commande sliding mode est conue, ensuite, un contrleur ou supplmentaire est
utilis pour amliorer les performances et liminer le chattering.
Dans (Ha, 1996), un tel rgime est prsent pour les systmes linariss sourant
d'incertitudes, un contrleur sliding mode combin avec un contrleur ou est utilis
pour compenser l'inuence de la dynamique non modlise et le chattering.
L'approche dans (Ha, 1996) est gnralise une classe de systmes non-linaire
dans (Ha, 1997) o les simulations sur un robot manipulateur sont prsentes.

37

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

7.2.2 Approches directes


Une quantit apprciable de travail est vue dans la littrature, dans laquelle une technique intelligente est utilise directement dans la conception d'un systme de commande
sliding mode.
Dans certaines de ces approches, la base des rgles est construite sur les variables s et
s (la drive de s). Ces approches sont utilises pour conduire les tats du systme
une surface de glissement. Dans (Hwang and Lin, 1992), les auteurs ont propos cette
approche pour la conception d'un contrleur sliding mode ou. Les entres du contrleur
ou propos sont fuzzies partir de s et s et la sortie est u (changement de u).

7.3 Rglage des paramtres du contrleur sliding mode avec les


algorithmes gntiques
Les algorithmes gntiques ont t utiliss pour le rglage et l'optimisation des paramtres du contrleur sliding mode.
Par exemple (Li et al., 1996) dcrit les dicults dans la conception de la commande
sliding mode et donne des directives sur l'utilisation des algorithmes gntiques. Il prsente en dtail, deux exemples pratiques sur l'utilisation des algorithmes gntiques dans
la construction du contrleur sliding mode.
Une structure sliding mode oue est considre dans (Lin and Chen, 1997) dans laquelle
les prmisses sont des ensembles ous sur la variable de glissement et les conclusions sont
la sortie du contrleurs. Deux mthodes de conception des contrleurs sliding mode ous
bases sur les algorithmes gntiques sont tudies dans cette approche.

7.4 Synthse de l'utilisation des rseaux RBF pour la commande


sliding mode
Les rseaux de neurones RBF ont t beaucoup utiliss pour la commande sliding
mode des systmes non linaires, soit pour estimer les paramtres incertains du modle,
soit pour estimer la partie corrective de la commande. Une autre application de ces rseaux
est dans l'estimation de la borne des incertitudes et perturbations d(t).
Nous avons essay de raliser une synthse non exhaustive de quelques unes de ces
applications dans la Table 1.2. La comparaison se porte sur les critres suivants :
(A) Estimation de la commande sliding mode par rseaux RBF.
(B) Estimation de la commande quivalente par les rseaux RBF.
(C) Estimation de la commande corrective par les rseaux RBF.
(D) Dtermination du nombre de neurones N automatiquement.
(E) Utilisation d'un algorithme d'apprentissage en ligne.
38

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande
(F) Robustesse envers les incertitudes.
(G) limination du chattering.
(H) Hybridation avec d'autres techniques de l'intelligence computationnelle.
En analysant la Table, nous pouvons ressortir avec les constatations suivantes :
Le recours aux rseaux RBF pour la commande sliding mode a connu un nouveau

essor dans les trois dernires annes surtout pour la commande des nouveaux systmes (olienne, robots bipdes, navires, plateforme de forage).
La majorit des auteurs ont choisi d'appliquer les RBF pour calculer la commande

quivalente en estimant les paramtres du modle.


Seulement 03 approches (3, 4 et 11) ont utilis les rseau RBF pour calculer la commande sliding mode globale en calculant la sortie du rseau u(t) en minimisant un
critre E = s.s .
Toutes les approches avec un algorithme d'apprentissage en ligne, utilisent une rgle

d'adaptation drive de l'algorithme rtro-propagation.


Les approches 9 et 10 utilisent les rseaux RBF pour estimer la forme des incerti-

tudes au lieu d'estime les paramtres du modle.


Les approches compares ont un seul inconvnient en commun, le nombre des neu-

rones est dtermin empiriquement, ce qui diminue les performances de la commande.

39

RBF neural network of sliding mode control for time-varying


2-dof parallel manipulator system, (Chen and Wo, 2013)
Sliding mode neuro adaptive control in trajectory tracking for
mobile robots,(Rossomando et al., 2013)
Network-Based Neural Adaptive Sliding Mode Controller for
the Ship Steering Problem,(Xia and Wu, 2013)
Neural fuzzy sliding mode control for a robot manipulator,

Adaptive neural network sliding mode control based on particle swarm optimization for rotary steering drilling stabilized
platform, (Zhang et al., 2012)
Terminal Sliding Mode Control for STT Missile Based on RBF
Neural Network, (Shi et al., 2012)
RBF neural network sliding mode control for variable-speed
adjustable-pitch system of wind turbine, (Jiao and Wang,

40

A RBF neural network sliding mode controller for sma actuator, (Tai and Ahn, 2010)
A new rbf network based sliding-mode control of nonlinear
systems, (Beyhan and Alci, 2009)
Internal model control of pm synchronous motor based on rbf
network optimized by genetic algorithm, (Li et al., 2007)
Adaptive neural network based fuzzy sliding mode control of
robot manipulator, (Ak and Cansever, 2006a)

2010)

(Hu and Lu, 2012)

un rseau RBF avec un neurone cach


Nombre des neurones est empirique mais pas mentionn.
: Inconvnient, + : Avantage.

Lgende :

15

14

13

12

11

10

and Wang, 2013)

RBF neural network based sliding mode control of a lower limb


exoskeleton suit,(Song et al., 2014)
Adaptive neural network motion control of manipulators with
experimental evaluations, (PugaGuzman et al., 2014)
Adaptive neural sliding mode control of active power lter,(Fei

et al., 2014)

Adaptive RBF network control for robot manipulators, (Fateh

Approche

oue

ueq estime par RBF(N) et uc

Estimer ueq par RBF(13), est


dtermin par k-means
RBF(N) pour estimer ueq par
Levenberg-Marquardth
Optimiser RBF(12) par les AG

Estimer ueq par RBF(10), uc


oue si ncessaire
Estimer modle dynamique par
RBF(N2)
Estimer la borne des incertitudes par RBF(N), optimiser paramtres par PSO
Estimer la borne des incertitudes
par RBF(N)
Estimer la commande u par
RBF(N)

RBF(20) pour estimer la commande u


Estime la commande u par RBF
base de RP
modle estim par RBF et fonction sat pour uc
Estimer ueq par RBF

Estimer les incertitudes avec un


RBF(1)1
RBF(5) pour estimer le gain K

Contribution

(B)

(A)

1.2: Synthse des approches sliding mode avec rseaux RBF.

N
1

Table

(C)

(D)

(E)

(F)

(G)

(H)

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans la


commande

8 Conclusion

Dans ce chapitre, nous avons prsent un tat de l'art sur les techniques de l'intelligence
computationnelle en particulier les rseaux de neurones RBF, logique oue et algorithmes
volutionnaires. Nous avons aussi prsent le principe de la commande PID et la commande sliding mode. Cette commande soure de quelques limites que les chercheurs ont
essay de rsoudre par les techniques intelligentes. La dernire section de ce chapitre a t
consacre aux direntes architectures et applications de ces techniques. Une attention
particulire a t prte aux rseaux RBF dans la commande sliding mode des systmes
non linaires o une synthse a t prsente en comparant quelques approches rcentes.
Parmi les solutions aux problmes de la commande sliding mode, la prsente thse se
concentre sur une solution base de rseaux de neurones RBF. Les performances de cette
solution sont conditionnes par l'ecacit de l'algorithme d'apprentissage.
Les chapitre 2 et 3 prsentent une amlioration de deux algorithmes volutionnaires
pour les utiliser ensuite pour l'apprentissage des rseaux de neurones RBF dans le chapitre
4. Le dernier chapitre dtaillera un algorithme d'apprentissage en ligne et son utilisation
dans une architecture base de rseaux RBF et logique oue pour la commande sliding
mode.
Cette numration des chapitres sort de l'ordinaire, mais elle est faite dans le souci
de montrer l'interaction du premier chapitre avec l'ensemble des autres chapitres (cf.
Figure 1).

41

Chapitre 2
Optimisation biogographique base sur
le modle prdateur et proies amlior
1 Introduction
L'optimisation est l'une des branches les plus importantes des mathmatiques appliques, elle a t le sujet de nombreuses recherches la fois pratiques et thoriques. La
rsolution d'un problme d'optimisation consiste explorer un espace de recherche an
de minimiser (maximiser ) une fonction donne.
Parmi ces problmes les plus connus dans le domaine de l'automatique, nous citons
le problme de trouver la combinaison optimale des gains d'un contrleur PID. Pour
rsoudre ce problme et palier la limite de la commande PID (Les gains sont ajusts
empiriquement), divers algorithmes inspirs de la nature ont t appliqus.
Depuis les algorithmes gntiques (AG) et Particules d'essaims (PSO) en passant par
les colonies de fourmis (ACO), Dierential Evolution (DE) jusqu'aux algorithmes dvelopps rcemment, comme les colonies d'abeilles articielles (ABC) et l'optimisation par
la biogographie (BBO). Une tude comparative de quelques approches mta-heuristiques
pour le problme de l'optimisation du PID est donne dans (Nagaraj and Vijayakumar,
2011).
Nous avons essayer de dresser un rsum des rcentes approches naturelles d'optimisation pour le rglage du contrleur PID. La Table 2.1 reprsente pour chaque algorithme,
le systme utilis ainsi que l'algorithme compar. La plupart des approche sont compares
aux algorithmes gntiques et avec la mthode conventionnelle Ziegler Nichols.
L'optimisation base sur la biogographie (BBO) est parmi les algorithmes d'optimisation les plus rcents (Simon, 2008). Il est bas sur le mouvement des espces entre les
cosystmes la recherche d'endroits habitables.
Ce chapitre est consacr la prsentation d'un algorithme hybride entre l'algorithme
BBO et le modle prdateur et proies qui est un algorithme d'optimisation de voisinage.
L'objectif de cette hybridation est d'accrotre l'eet de la diversication reprsent dans
42

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
l'optimisation par la biogographie (BBO) par l'oprateur de la mutation. L'algorithme
rsultant a t appliqu pour l'optimisation des paramtres d'un contrleur PID des systmes non linaires (Masse-Ressort-Amortisseur et pendule invers).
Table

2.1: Mta-heuristiques pour l'optimisation d'un PID

Algo
AG

Approche
(Kim, 2008)
(Yin et al., 2004)
(Zain et al., 2009)
DE
(Ruijun, 2009)
(Youxin and Xiaoyi, 2010)
ACO (Soundarrajan et al., 2010)
(Berbaoui et al., 2011)
PSO (GirirajKumar et al., 2010)
(Solihin et al., 2011)
(Lahoty and Parmar, 2013)
ABC
(Gozde et al., 2010)
(Sundareswaran, 2008).
BBO (Salem and Khel, 2012)

Systme
Systme d'osmose invers
Systme sous-amorti
Bras manipulateur exible
Systme de premier ordre
Servo-moteur
Moteur courant continu
Filtre actif
Perceuse
Moteur DC
Systme FOPDT
AVR
Moteur courant continu
Pendule invers

Comparaison
Ziegler-Nichols

PSO

Ziegler Nichol
Ziegler Nichol
Ziegler Nichol, AG
AG
AG

2 Optimisation base sur la biogographie


L'optimisation base sur la biogographie (BBO) est un algorithme stochastique d'optimisation motiv par les mcanismes de la migration des cosystmes. Elle est inspire
des modles mathmatiques de la biogographie et elle a t initialement dveloppe par
D. Simon (Simon, 2008). Cet algorithme appartient une famille des algorithmes volutionnaires dont le but est d'obtenir une solution optimale un problme d'optimisation
par un processus volutionnaire.

2.1 Biogographie
La Biogographie est l'tude de la distribution de la biodiversit dans l'espace et dans
le temps, ce qui permet aux nombreuses espces animales de migrer vers dirents habitats
ou les pour leur survie et une meilleure vie. La biogographie a t tudie ds le 19me
sicle par Alfred Wallace et Charles Darwin (Macarthur and Wilson, 1967).
Dans le dbut des annes 60, (Macarthur and Wilson, 1967) ont dvelopp les modles
mathmatiques de la biogographie, ce qui lui permet de prosprer comme un important
domaine de recherche.
43

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
Dans la science de la biogographie, une le est dnie comme la zone cologique
habite par des plantes particulires ou d'espces animales et gographiquement isole
d'autres habitats. Chaque le a ses caractristiques telles que la disponibilit alimentaire,
les prcipitations, la temprature, la diversit des espces, la scurit, etc. (cf. Figure 2.1).
La qualit d'une le est mesure par son indice d'adquation (Suitability Index). Les
les avec un indice lev sont plus adaptes la vie et ont donc une grande population
(Macarthur and Wilson, 1967).

Figure

2.1: Migration des espces (Simon, 2008)

2.2 Optimisation et biogographie


L'application de la biogographie dans l'optimisation est un exemple d'un modle
de processus naturel pour rsoudre les problmes d'optimisation. Ceci est similaire ce
qui s'est pass dans les dernires dcennies avec les algorithmes gntiques, rseaux de
neurones, les colonies de fourmis et d'autres domaines de l'intelligence informatique (Ma
et al., 2013).
L'optimisation par la biogographie (BBO) utilise un vocabulaire similaire celui de la
biogographie (cf. Table 2.2) o chaque habitat est analogue une solution du problme.
Les caractristiques des solutions (variables de dcision) sont appeles variables d'indice
d'adquation (SIV). L'indice d'adquation de l'habitat (HSI) est analogue au tness qui
permet de mesurer l'adquation de l'individu.
Les habitats avec un HSI lev ont tendance avoir un grand nombre d'espces, un
taux d'immigration faible et un taux d'migration lev. Inversement, les habitats avec
un HSI faible ont un faible nombre d'espces, un taux d'immigration lev et un taux
d'migration faible (Simon, 2008).
L'algorithme BBO ncessite l'emploi de certains termes dont il est utile de prciser la
dnition.
44

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
Table

2.2: Terminologie de la BBO

La Biogographie
Algorithme BBO
Habitat ou le
Solution du problme
HSI
Qualit de la solution (fonction cot)
SIV
Les Variable du problme d'optimisation

2.2.1 Variable d'indice d'adquation


Une variable d'indice d'adquation (SIV ) est une variable entire, relle o boolenne
qui caractrise l'habitabilit d'une le (Simon, 2008).

2.2.2 Habitat
Un habitat H est une solution du problme reprsente gnralement par un vecteur
initialis alatoirement par des variable d'indice d'adquation. Il est not (Simon, 2008) :
H = [SIV1 , SIV2 , . . . , SIVK ]

(2.1)

2.2.3 Population
Une population est un ensemble de n habitats (Simon, 2008).
P op = [H1 , H2 , . . . , Hn ]

(2.2)

2.2.4 Indice d'adquation de l'habitat


Un indice d'adquation de l'habitat (HSI ) quivalant au tness, associe une valeur
pour chaque individu. Cette valeur pour but d'valuer le degr d'adaptation d'un individu son environnement (Simon, 2008).
HSI = f (H) = f (SIV1 , SIV2 , ..., SIVK )

(2.3)

2.2.5 Taux d'immigration


Le taux d'immigration (Hi ) est le taux d'entre des variables (SIV) un habitat.

2.2.6 Taux d'migration


Le taux d'migration (Hi ) est le taux de sortie des variables (SIV) d'un habitat.

45

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
Initialisation
des paramtres
Initialisation de
la population
valuation de la HSI

Critre d'arrt ?

Oui

Solution optimale

Non
Slection
Migration
Mutation
valuer la HSI
Gnration i + 1

Figure

2.2: Organigramme gnral de l'algorithme BBO

2.3 tapes de l'optimisation base sur la biogographie


L'organigramme fonctionnel prsent dans la Figure 2.2, illustre la structure gnrale
de l'algorithme BBO.
L'algorithme commence par initialiser les paramtres et la population initiale, il modie cette population par des oprateurs spciques en construisant de nouvelles population
jusqu' atteindre une qualit (HSI) meilleure qu'un seuil prx ou un nombre maximal
de gnrations gmax .

2.3.1 Initialisation
Dans cette tape, nous dnissons les paramtres de contrle (cf. Table 2.3) et nous
gnrons alatoirement une population initiale de n habitats. La taille de cette population
reste constante tout le long de l'algorithme (Simon, 2008).
46

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
Table

Paramtre
n
gmax
I
E
mmax
smax

2.3: Paramtres de la BBO

Notation
La taille de la population
Le nombre de gnrations
Le taux maximum possible d'immigration
Le taux maximum possible d'migration
Le taux maximum de la mutation
Le nombre maximum des espces dans l'habitat.

2.3.2 valuation de la fonction HSI


Pour valuer la pertinence d'une solution par rapport une autre, nous calculons la
valeur de la HSI correspondante chaque solution candidate (Simon, 2008).

2.3.3 Slection
Pour appliquer les oprateurs de l'algorithme BBO comme n'importe quel autre algorithme volutionnaire, nous devons slectionner les habitats ou individus candidats cet
oprateur.
La slection est fonde sur la qualit des habitats, estime l'aide de fonction d'adaptation. Il existe plusieurs mthodes de slection (Mitchell, 1998).

Slection par roulette

La population est reprsente comme une roue de roulette, o chaque habitat est reprsent par une portion qui correspond proportionnellement son valeur de HSI (tness).
La slection d'un individu se fait en tournant la roue. L'un des inconvnients de ce type
de slection est de choisir presque toujours le mme habitat s'il en existe un bien meilleur
que tous les autres, ce qui cause une perte de diversit dans la population (Miller and
Goldberg, 1995).

Slection par rang

La slection par rang trie d'abord la population par HSI. Ensuite, chaque habitat se
voit associ un rang en fonction de son position. Ainsi le plus mauvais habitat aura le
rang 1, le suivant 2, et ainsi de suite jusqu'au meilleur habitat qui aura le rang n. La
slection par rang d'un habitat est la mme que par roulette, mais les proportions sont
en relation avec le rang plutt qu'avec la valeur de l'valuation. Avec cette mthode de
slection, tous les habitats ont une chance d'tre slectionns. Cependant, elle conduit
une convergence plus lente vers la bonne solution. Ceci est d au fait que les meilleurs
habitats ne dirent pas normment des plus mauvais (Miller and Goldberg, 1995).

Slection par tournoi


47

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
La slection par tournoi est l'une des slections les plus utilises dans les algorithmes
volutionnaires. Le principe consiste choisir un sous-ensemble d'individus (S individus)
alatoirement dans la population, puis slectionner le meilleur individu dans ce groupe
en fonction de son HSI. Ce processus est rpt jusqu' l'obtention du nombre d'individus
requis (Miller and Goldberg, 1995). Le nombre de participants un tournoi, appel la
taille du tournoi, est utilis pour faire varier la pression de cette slection. Si ce nombre
est grand, alors la pression sera forte et les faibles individus auront une petite chance
d'tre choisis. En gnral, un seul gagnant est choisi parmi les participants un tournoi.

litisme

A la cration d'une nouvelle population, il y a de grandes chances que les meilleurs


habitats soient perdus aprs les oprations de migration et de mutation. Pour viter cela,
nous utilisons la mthode d'litisme. Elle consiste copier un ou plusieurs des meilleurs
habitats dans la nouvelle gnration. Ensuite, nous gnrons le reste de la population
selon le mcanisme de reproduction usuel.
L'oprateur de slection est utilis pour slectionner des habitats pour appliquer les
deux oprateurs d'volution : la migration et la mutation.

2.3.4 Oprateur de migration


La migration est un oprateur probabiliste utilis pour modier chaque solution Hi
en partageant des caractristiques parmi les direntes solutions. L'ide de l'oprateur de
migration est base sur la migration en biogographie, qui reprsente le mouvement des
espces entre les dirents habitats.
La probabilit qu'une solution est slectionne pour immigrer ou migrer dpend de
son taux d'immigration i ou le taux d'migration j (Ma et al., 2013).
Le processus de migration est dni par la relation :
Hi (SIVk ) Hj (SIVk )

(2.4)

L'quation (2.4) reprsente comment une caractristique ou SIV d'une solution Hi est
remplace par une caractristique ou SIV d'une solution Hj par l'opration de migration.
Dans la BBO, chaque solution Hi a son propre taux d'immigration i et taux d'migration i . Ces deux taux sont calculs par l'quation (2.5) et l'quation (2.6) respectivement.
i = I(1

ki
)
n

ki
i = E( )
n

(2.5)
(2.6)

I et E reprsentent les taux maximaux possibles d'immigration et d'migration respecti-

vement.
48

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
ki reprsente le rang du ime habitat aprs le tri de tous les habitats en fonction de leur
HSI .
n reprsente la taille de la population. La Figure 2.3 illustre deux solutions candidates
S1 et S2 un problme en utilisant des courbes d'immigration et d'migration symtriques
(E = I).
S1 reprsente une mauvaise solution et S2 reprsente une meilleure solution. La probabilit
d'immigration pour S1 sera donc plus leve que celle de S2 tandis que la probabilit
d'migration pour S1 sera infrieure la probabilit d'migration pour S2 (Simon, 2008).

E=I

Taux

S1 Espces S2

Figure

Smax

2.3: Illustration de deux solutions candidates S1 et S2

2.3.5 Oprateur de mutation


En plus de l'oprateur de migration, nous avons l'oprateur de mutation. La mutation
est un oprateur probabiliste utilis pour modier un ou plusieurs SIV d'une solution slectionne alatoirement en se basant sur sa probabilit d'existence Pig pour la gnration
g . Cet oprateur aide introduire de nouvelles caractristiques et augmente la diversit
dans la population (Simon, 2008).
La probabilit de mutation mi est calcule en fonction de la probabilit de la solution
exprime dans l'quation (2.7).
mi = mmax (1

Pig
)
Pmax

(2.7)

o :
mi : Le taux de mutation pour l'habitat i.
mmax : Le taux maximum de mutation.
Pmax : La probabilit maximale d'existence.
Avant d'appliquer l'oprateur de la mutation, nous devons calculer Pig , la probabilit
d'existence de l'habitat i dans la gnration actuelle g . Ce paramtre est calcul partir
de sa valeur dans la gnration prcdente par l'quation (2.8).
Pig = Pig1 + Pig

49

(2.8)

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
Les valeurs de Pi avant le dbut de l'algorithme sont initialises 1/n pour chaque habitat (Simon, 2008).
P i est le changement de probabilit d'existence de l'habitat i, il est donn par l'quation (2.9) (Simon, 2008) :

P i =

(i + i )Pi + i+1 Pi+1


i=1
(i + i )Pi + i1 Pi1 + i+1 Pi+1 2 i < n

(i + i )Pi + i1 Pi1
i=n

(2.9)

3 Modle Prdateur et Proies


3.1 Origine du modle prdateur et proies
L'ide de base du modle prdateur et proies (P &P ) est d'imiter le comportement des
animaux dans la nature o, les prdateurs chassent pour survivre .
Les proies de leurs part, ont tendance fuir des endroits o il y a des prdateurs et
explorent de nouveaux endroits srs pour survivre elles aussi (cf. Figure 2.4).

Figure

2.4: Exemples des prdateurs et proies.

3.2 Optimisation par le modle prdateur et proies


L'algorithme d'optimisation par le modle prdateur et proies est un algorithme d'optimisation de voisinage inspir du phnomne naturel o un prdateur capture les proies
les plus faibles, ce qui signie qu'un prdateur limine la proie la plus proche de sa position (cf. Figure 2.5), qui correspond la plus mauvaise valeur de la fonction objectif dans
un problme d'optimisation (Silva et al., 2010).
L'application du modle prdateur et proies pour un problme d'optimisation peut
tre rsume comme suit :
50

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
1. Calculer la position du prdateur dans l'espace de recherche par rapport la mauvaise solution en utilisant l'quation :
xpredg = xmauvg + (1

g
gmax

(2.10)

o est une constante de taux de chasse, g est la gnrations courante et gmax est
le nombre maximum des gnrations.
2. Faire fuir les proies de la position du prdateur (dplacer les proies). Les nouvelles
positions sont donnes par :
(
xig+1 =

xig + e|d| d > 0


xig e|d| d < 0

(2.11)

o d est la distance entre la proie et le prdateur.


3. Rpter les tapes 1 et 2 jusqu' atteindre le critre d'arrt.

Predateur
(Mauvaise solution)
Anciennes positions des proies

Nouvelles positions des proies


Mouvements des proies
Figure

2.5: Modle prdateur et proie.

4 Hybridation de l'algorithme BBO par le modle prdateur et proies amlior


Dans cette section, nous allons prsenter un algorithme d'optimisation (PMBBO) bas
sur l'hybridation de l'algorithme BBO et le modle Prdateur et Proies amlior (Salem
and Khel, 2014c), (Salem and Khel, 2014b). En eet, deux modications majeures ont
t introduites dans l'algorithme BBO originalement dvelopp par (Simon, 2008) :
D'abord, une modication de l'oprateur de migration o l'oprateur original prsent
dans l'quation (2.4) est remplac par un nouvel oprateur permettant d'empcher la d51

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
trioration des meilleures solutions.
Le second changement propos est de remplacer l'oprateur de mutation par un modle prdateur et proies amlior an d'assurer la diversication. Cette modication est
motive par le fait que les espces naturelles essayent toujours de trouver les endroits habitables en s'loignant le plus possible de leurs prdateurs. L'algorithme PMBBO propos
est dcrit dans la Figure 2.6 (Salem and Khel, 2014c).

4.1 Nouvel oprateur de migration


Dans (Sayed et al., 2012), une modication de l'oprateur de migration a t propose
en se basant sur les travaux de (Ma and Simon, 2011). L'oprateur propos permet non
seulement de reconstruire les solutions existantes mais aussi de fournir de nouvelles solution an d'augmenter la diversication. Cet oprateur permet de partager les informations
entre les habitats i et j comme le montre l'quation (2.12) (Salem and Khel, 2014c) :
Hj (SIVc ) (

kj
kj
)Hj (SIVc ) + (1
)Hi (SIVc ) , c = 1..nsiv .
ki + kj
ki + kj

(2.12)

o ki et kj sont les rangs des habitats i et j .


Un nouvel oprateur de migration est propos pour sauvegarder les meilleurs solutions et
d'en crer de nouvelles.
Cet oprateur permet aux meilleurs solutions de partager leurs informations en se
basant sur leurs qualit par rapport la totalit des solutions. Ce partage est dcrit dans
l'quation (2.13) (Salem and Khel, 2014c) :
Hj (SIVc ) (

kj
n kj
)Hj (SIVc ) + ( )Hi (SIVc )
n
n

(2.13)

4.2 Amlioration du modle prdateur et proies


An d'appliquer le modle prdateur et proie dans l'optimisation par la biogographie,
nous proposons d'apporter quelques amliorations au modle prdateur et proies classique.
Ces modications se rapportent la nature des prdateurs, leur nombre, la valeur du
taux de chasse et le dplacement des proies (Salem and Khel, 2014b).
Initialiser les prdateurs par les meilleures solutions :

Le modle prdateur et proies est une mthode d'optimisation base de voisinage,


pour cela le principe est de faire loigner les proies de la mauvaise solution pour en
trouver des meilleures.
Dans notre cas, ce modle est utilis pour faire partie d'un autre algorithme d'optimisation o l'objectif est de s'loigner des minima locaux ce qui nous conduit la
dnition du prdateur la meilleure solution.
52

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
Utiliser un groupe de prdateurs :

Nous proposons de considrer un ensemble de prdateurs (Meilleures solutions).


Cette proposition est faite pour imiter le comportement des prdateurs qui par nature, chassent en groupes et qu'il est fort probable d'avoir plusieurs minima locaux.
Il s'agit de faire loigner les solutions se trouvant dans l'entourage de nbpred meilleures
solutions pour ne garder qu'une solution dans chaque emplacement.
Soit nbpred le nombre de prdateurs initialis au nbpred meilleures solutions aprs classement. L'quation (2.10) sera remplace par l'quation (2.14) (Salem and Khel,
2014c) :
Hpredi = Hbi + 1

g
gmax

!
i = 1..nbpred .

(2.14)

Dplacement alatoire des proies :

Si nous tudions de prs le dplacement classique des proies dans le modle prdateur et proies, il est clair qu'il a le mme eet que l'oprateur de migration de la
BBO (partager des informations entre solutions). Pour permettre aux solutions du
voisinage d'explorer d'autres parties de l'espace de recherche, une modication de
la formule de dplacement (2.13)) s'impose.
Considrons une solution prdateur, l'ide est d'au lieu d'eectuer un petit dplacement des proies, nous allons crer alatoirement de nouvelles solutions partir des
solutions avoisinantes du prdateur.
Les nouvelles solutions seront cres par l'quation (2.15) en introduisant une variable
alatoire (Salem and Khel, 2014b).
Hig+1 = Hig + e|dm | (Himax Himin ) ig
/ [1..nbpred ].

(2.15)

o dm est la distance entre la proie Hig et le prdateur le plus proche donne par
l'quation (2.16).
nbpred

dm = min d(Hig , Hpredj )


j=1

(2.16)

Himin et Himax sont les bornes minimale et maximale possibles pour les variables de
dcision de l'habitat H , est une valeur alatoire entre 1 et 1 (Salem and Khel,

2014c).
Taux de chasse variable :

Puisque le besoin de diversication dcrot au long des gnrations au dpend de


l'intensication, le taux de chasse est choisi dcroissant en fonction du nombre des
gnrations selon la formule (2.17) (Salem and Khel, 2014c).
=

53

1
g

(2.17)

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
o g est la gnration actuelle et gmax est le nombre maximum de gnrations.
La Figure 2.7 montre un schma explicatif du modle prdateur et proie amlior avec un
groupe de prdateurs au lieu d'un (Salem and Khel, 2014c).

input : gmax , nsiv ,nbpred


output : Optimal solution
1 Initialize gmax , nsiv ,nbpred ;
2 Initialize start islands.;
3 while g < gmax do
4
//Migration ;
5
for each island i do
6
Calculate HSIi ;
7
Calculate i and i by Equation (2.5) and (2.6);
8
Apply the modied migration operator using Equation (2.13);
9
end
10
//Predator and prey ;
11
Calculate Predators positions by Equation(2.14);
12
for each island i do
13
Calculate distance to all predators ;
14
Calculate dm by Equation (2.16);
15
Update island using Equation (2.15) ;
16
end
17 end
Figure

2.6: Algorithme PMBBO

Predateurs
(Meuileures solutions)
Anciennes positions des proies

Nouvelles positions des proies


Mouvements des proies
Figure

2.7: Modle prdateur et proies amlior.

54

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior

5 Rglage d'un contrleur PID par l'approche PMBBO


Le rglage des paramtres d'un contrleur PID peut tre considr comme un problme
d'optimisation o il s'agit de trouver la solution optimale des gains du contrleur dans un
espace de recherche prdni pour permettre au systme de suivre une rfrence dsire.
Dans ce contexte, l'algorithme PMBBO peut tre appliqu pour trouver la combinaison
optimale des gains proportionnel, intgral et driv Kp , Ki , Kd du contrleur PID (Salem
and Khel, 2014c).
L'espace de recherche dni dans l'quation (2.18) est limit par les contraintes physiques supportes par le systme tudi.
Kp [Kpmin , Kpmax ]
Ki [Kimin , Kimax ]
Kd [Kdmin , Kdmax ]

(2.18)

5.1 Choix des fonctions objectifs


Le choix de la HSI (fonction cot) est conditionn par l'objectif atteindre. Ces
objectifs sont xs par les performances dnies dans le cahier des charges. Il s'agit gnralement de l'erreur statique, du temps de monte, temps de rponse et du dpassement
maximum autoris.

5.1.1 Fonctions bases sur l'erreur


Dans la littratures, Nous pouvons trouver une multitude de critres de performance
ou fonctions objectifs (HSI dans le cas de la BBO). La plupart de ces fonctions sont bases
sur l'erreur d'optimisation. Nous pouvons citer (Mitchell, 1998) :
- Intgral des carres de l'erreur (ISE) :
+

e(t)dt

(2.19)

|e(t)|dt

(2.20)

ISE =
0

- Intgral de l'erreur absolue (IAE) :


+

Z
IAE =
0

- Intgral du temps et carres de l'erreur (ITSE) :


Z
IT SE =

te(t)dt
0

55

(2.21)

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
- Intgral du temps et erreur absolue(ITAE) :
Z

t|e(t)|dt

IT AE =

(2.22)

Pour tous les critres, la meilleure rponse correspond la valeur minimale du critre
choisi.
Dans tous ces cas, soit l'erreur absolue ou l'erreur quadratique sont utiliss parce que
l'intgration simple peut conduire un rsultat nul erron dans le cas o le systme a une
amplitude constante oscillatoire (Mitchell, 1998).
La fonction IAE est souvent utilise dans le cas discret, mais elle est inapplicable pour
le cas continu parce que la valeur absolue d'une fonction d'erreur gnralement n'a pas
une forme analytique. Ce problme est surmont par le critre ISE (Mitchell, 1998).
Les fonctions ITAE et ITSE ont un oprateur de temps supplmentaire multipli par la
fonction de l'erreur, ce qui met l'accent sur les erreurs de longue dure, et par consquent,
ces critres sont le plus souvent appliqus dans le cas des systmes ncessitant un temps
de rponse rapide (Lahoty and Parmar, 2013).

5.1.2 Fonction globale


Dans le cas o les objectifs atteindre sont spcis en qualit d'erreur statique,
dpassement autoris, temps de mont et temps de rponse, la fonction de l'quation (2.23)
est utilise (Lahoty and Parmar, 2013).
fg = (1 e )(Omax + es ) + e (Tr Tm )

(2.23)

o Tr et Tm sont le temps de rponse et de monte respectivement. Omax est le dpassement


maximum et es est l'erreur statique. est une constante de pondration.

5.2 Architecture d'optimisation adopte


Pour optimiser les paramtres du contrleur PID, l'algorithme PMBBO va tre appliqu. Lors de la premire tape, la population initiale va tre cre alatoirement avec n
habitats contenant 3 variables de dcision (SIV) : Kp , Ki , Kd .
Pour valuer les habitats, nous injectons ces gains dans le contrleur PID et nous
mesurons la sortie du systme, cela nous permet de calculer les performances (Erreur,
temps de monte, temps de rponse et dpassement).
L'architecture d'utilisation de l'algorithme PMBBO pour le rglage des paramtres du
contrleur PID est montre dans la Figure 2.8 (Salem and Khel, 2014b).

56

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
PMBBO
Kp , Ki , Kd
yd (t)

e(t)

PID

u(t)

Systme

y(t)

Figure

2.8: Application de l'algorithme PMBBO pour le rglage des paramtres du PID.

6 Rsultats de simulation
Pour valuer l'algorithme propos, nous allons l'appliquer pour ajuster les paramtres
d'un contrleur PID pour commander deux systmes non linaires dcrits dans l'annexe :
Le systme masse-essort-Amortisseur et le pendule invers.
L'valuation sera eectue par le biais de la fonction objectif ISE donne en quation (2.19). Par la suite, nous prsenterons une comparaison des performances de PMBBO
avec les algorithmes BBO, AG et MBBO (BBO avec l'oprateur de migration modi donne en quation (2.13)) en utilisant la fonction HSI fg de l'quation (2.23).

6.1 Application de l'algorithme PMBBO avec le systme Masseressort-Amortisseur


An de commander le systme Masse-Ressort-Amortisseur, nous avons appliqu l'algorithme PMBBO pour optimiser les paramtres du contrleur PID. La rfrence que le
systme doit atteindre est xd = 1m. Les paramtres de l'algorithme PMBBO utilis sont
montrs dans la Table 2.4.
L'volution des minima de la fonction HSI (ISE ) le long des 50 gnrations est donne
dans la Figure 2.9. Le minimum atteint en 50 gnrations est de 9.371.
L'eet apport par le modle prdateur et proie peut tre constat sur la Figure 2.10 o
nous pouvons remarquer que la distance entre la meilleure solution et la mauvaise dcrot
le long des gnrations cause de l'eet de diversication apport par le modle prdateur
et proies amlior.
Les gains correspondants aux meilleures solutions sont reprsents dans la Figure 2.11
o nous pouvons constater que la combinaison retenue est Kp = 47.2601,Ki = 8.4561 et
Kd = 3.9597.
Les positions dsires (xd = 1m) et relle sont montres dans la Figure 2.12 et les
erreurs correspondants sont en Figure 2.13. Les gains optimaux ont conduit le systme
57

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
une convergence rapide vers la sortie dsire avec une erreur statique presque nulle et un
temps de rponse infrieur 0.2s(Tr = 0.19s).
Table

2.4: Paramtres de la PMBBO, Masse ressort amortisseur


Paramtre
gmax
I ,E
Intervalles de Kp , Ki , Kd
Nombre de Prdateurs nbpred

Valeur
20
50
1
[0..50]
4

HSI

ISE

11

HSI 1

10.5
10
9.5
9

10

15

20

25

30

35

40

45

50

Gnrations
Figure

2.9: volution des meilleures HSI par PMBBO Masse ressort amortisseur.

18

Mauvaises solutions
Meilleures solutions

HSI

16
14
12
10
8

10

15

20

25

30

35

40

45

50

Gnrations
Figure

2.10: volution des mauvaises HSI par PMBBO, Masse ressort amortisseur.
58

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior

Gains

40

Kp
Ki
Kd

20
0
20

10

15

20

25

30

35

40

45

50

Gnrations

positions (m)

Figure

2.11: volution des gains du PID par PMBBO, Masse ressort amortisseur.

Position relle
Position dsire

0.5

10

Temps(s)

Erreur en position (m)

Figure

2.12: Positions relle et dsire du Masse ressort amortisseur par PMBBO.

0.5

0
0

Temps(s)
Figure

2.13: Erreurs en position du Masse ressort amortisseur par PMBBO.


59

10

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior

6.2 Application de l'algorithme PMBBO avec le pendule invers


La deuxime application de l'algorithme propos PMBBO est dans la commande du
pendule invers. Nous avons appliqu l'algorithme PMBBO pour optimiser les paramtres
d'un contrleur PID pour le pendule invers.
L'objectif de la commande est de garder l'angle nulle pendant le mouvement du charriot
(d = 0). Les paramtres de l'algorithme PMBBO utiliss sont montrs dans la Table 2.5.
L'volution des minima de la fonction HSI (ISE ) le long des 50 gnrations est donne
dans la Figure 2.14 o nous pouvons remarquer que l'algorithme atteint son minimum
aprs 10 gnrations. Les gains correspondants au minimum obtenu sont dans la Figure 2.15.
Les gains obtenus par l'algorithme PMBBO sont utiliss pour la commande PID du pendule invers. L'objectif est de ramener la tige et la garder dans une position verticale .
L'erreur de rgulation est prsente dans la Figure 2.16.
Nous pouvons remarquer la rapidit avec laquelle, la tige a atteint la position verticale
dans un temps de rponse de 0.05s et une erreur statique de 105 Rad.
Table

2.5: Paramtres de la PMBBO, pendule invers


Paramtre
gmax
I ,E
Intervalles de Kp , Ki , Kd
Nombre de prdateurs npred

Valeur
20
50
1
[0..50]
6

HSI

ISE

Min HSI

0.65
0.65
0.64
0.64
0

10

15

20

25

30

35

40

45

50

Gnrations
Figure

2.14: volution des meilleures HSI de la PMBBO avec un pendule invers).

60

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior

Erreur Angle (rad)

Figure

2.15: volution des gains du PID pour la PMBBO avec un pendule invers.

0
0.1
0.2
0.3
0

10

Temps (s)
Figure

2.16: Erreurs en position angulaire par la PMBBO avec un pendule invers).

6.3 tude comparative de l'algorithme PMBBO


Les performances de l'algorithme PMBBO ont t compares avec celles des algorithmes gntiques (AG), optimisation par la Biogographie (BBO) (Salem and Khel,
2012), BBO Modi (MBBO). La comparaison a t ralise dans les mmes conditions
(Nombre d'valuations, Taille de population, Population initiale). Les paramtres des algorithmes utiliss dans la comparaison (BBO, MBBO, PMBBO et AG) sont reprsents
dans la Table 2.6 et Table 2.7 respectivement.
Le systme pendule invers a t utilis pour comparer les algorithme. Les erreurs en
position angulaire du pendule pour les algorithmes AG, BBO et PMBBO sont reprsents
en Figure 2.17.
Pour eectuer la comparaison, chaque algorithme est excut 10 fois, chacune avec une
61

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
population initiale dirente. Les valeurs minimales de la fonction objectif (tness pour
les AG et HSI pour les algorithmes base de BBO) sont mentionnes dans la Table 2.8.
A partir de la Table 2.9, PMBBO a donn les meilleurs rsultats avec des populations
initiales direntes par rapport aux autres algorithmes. Ceci est d au modle prdateur
et proie amlior qui a permis d'viter les minima locaux et a amlior les performances
de la BBO.
D'un autre part, les rsultats de l'algorithme MBBO (BBO avec oprateur de migration
modi) sont clairement meilleures que ceux du BBO, ce qui valide l'apport du nouvel
oprateur de migration.
Les rsultats des 4 algorithmes sont dtaills dans la Table 2.8 en termes de performances
du systme (temps de monte(Tm ), temps de rponse (Tr ) et dpassement(Omax )).
L'algorithme PMBBO a obtenu de meilleurs rsultats que les AG en termes de temps
de monte pour toutes les excutions, en temps de rponse (9 excutions sur 10) et en
dpassement (7 excutions sur 10)(cf. Table 2.9).
Table

2.6: Paramtres de BBO, MBBO et PMBBO pour la comparaison.

Paramtre

BBO MBBO PMBBO

Nombre des Habitats N


Nombre des valuations
SIVs
Coecient de mutation
E=I

Nombre de prdateurs npred


HSI
Table

20

20

20

104

104

104

3
0.1
1
/

3
0.1
1
/

3
/
1
6

fg

fg

fg

2.7: Paramtres des algorithmes gntiques(AG) pour la comparaison

Paramtre

Valeur

Chromosomes
20
Nombre des valuations
104
Gnes
3
Taux de croisement
0.6
Type de croisement
Deux points
Taux de mutation
0.01
Type de mutation
bit ip
Fitness
fg

62

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior
2.8: Cots minimums des 10 excutions pour les algorithmes AG, BBO, MBBO
et PMBBO (fg ).

Table

Excution

AG

BBO

MBBO PMBBO

1
2
3
4
5
6
7
8
9
10

4.6e-03
4.7e-03
4.7e-03
4.7e-03
4.6e-03
4.6e-03
4.7e-03
4.6e-03
4.7e-03
4.8e-03

4.5e-03
4.5e-03
4.3e-03
4.2e-03
4.2e-03
4.3e-03
4.3e-03
4.3e-03
4.3e-03
4.2e-03

4.5e-03
4.6e-03
4.2e-03
4.2e-03
4.4e-03
4.3e-03
4.2e-03
4.3e-03
4.2e-03
4.2e-03

4.2e-03
4.2e-03
4.1e-03
4.1e-03
4.1e-03
4.1e-03
4.0e-03
4.1e-03
4.1e-03
4.1e-03

0.05
0

Erreur Anglaire (rad)

0.05
0.1

0.04

GA

0.02

BBO

0.15

PMBBO

0.2
0.02

0.25
0.04

0.3
0.35
0

Figure

Table

0.2

0.4

0.6

0.8

5
Temps (s)

2.17: Erreurs en position angulaire(tude comparative du PMBBO).

2.9: Performances du pendule invers avec PID, tude comparative de la PMBBO

Excution
1
2
3
4
5
6
7
8
9
10

PMBBO

AG

Min HSI

Tm (s)

Tr (s)

Omax

Min tness

Tm (s)

Tr (s)

Omax

0.579
0.579
0.577
0.577
0.575
0.581
0.579
0.581
0.580
0.568

0.061
0.064
0.064
0.064
0.064
0.065
0.064
0.064
0.066
0.065

0.160
0.175
0.194
0.172
0.178
0.208
0.180
0.191
0.197
0.178

0.012
0.012
0.014
0.011
0.012
0.015
0.012
0.014
0.014
0.012

0.619
0.592
0.672
0.646
0.670
0.632
0.640
0.602
0.634
0.606

0.056
0.058
0.059
0.056
0.055
0.077
0.068
0.061
0.058
0.060

3.465
0.158
1.783
0.175
1.730
2.301
4.117
0.167
4.360
0.164

0.014
0.014
0.018
0.020
0.020
0.008
0.014
0.013
0.011
0.013

63

10

Chapitre 2. Optimisation biogographique base sur le modle prdateur et proies


amlior

7 Conclusion

Dans ce chapitre, nous avons prsent un algorithme hybride (PMBBO) entre l'optimisation par la biogographie (BBO) et le modle prdateur et proies.
Des modications ont t apportes, d'une part, l'oprateur de migration du BBO
pour prserver les solutions d'tre dtriores et d'autre part, au modle prdateur et
proie pour l'adapter l'hybridation. En eet, le modle prdateur et proies amlior
dire largement du modle original o un ensemble de prdateurs est considr pour
accroitre la diversication de l'algorithme hybride et acclrer le processus de trouver la
solution optimale en gnrant des habitats alatoires.
L'algorithme obtenu a t utilis pour l'optimisation des gains d'un contrleur PID
avec deux systmes non linaires, le systme masse-ressort-amortisseur et le pendule invers.
Une comparaison de l'algorithme PMBBO a t ralise avec l'algorithme BBO classique et les algorithmes gntiques.
Bien que les rsultats de cette comparaison aient conrm l'amlioration des performances d'optimisation de l'algorithme propos, nanmoins, cette conclusion reste valider
statistiquement cause du petit nombre d'chantillons utiliss (moins de 30) (Garcia et al.,
2010).
Les rsultats obtenus arant aux travaux raliss ont t valids par des instances
scientiques internationales, en l'occurrence :

ICCS12 pour l'application de l'algorithme de l'optimisation base sur la biogographie pour optimiser un contrleur PID.

IJOCTA14 pour la conception de l'algorithme hybride PMBBO.


IJISA14b pour l'amlioration de l'algorithme hybride PMBBO.

64

Chapitre 3
Optimisation par colonie d'abeilles
articielles et prdateur et proies
amlior
1 Introduction
L'tude des phnomnes rels est une nouvelle source d'inspiration en ingnierie d'informatique, o l'tude et la modlisation des systmes complexes sont trs prsentes.
Parmi les domaines fertiles de la biologie en inspiration, l'thologie (tude du comportement des animaux) a rcemment donn lieu plusieurs avances signicatives, dans
la conception des systmes articiels. Ces systmes sont notamment tudis en robotique, en classication ou encore en optimisation. Les mta-heuristiques constituent une
famille d'algorithmes inspirs de la nature. Ces algorithmes sont particulirement utiles
pour rsoudre des problmes o les algorithmes d'optimisation classiques sont incapables
de produire des rsultats satisfaisants. L'algorithme d'optimisation par colonie d'abeilles
articielles (ABC) est une de ces mthodes.
L'algorithme ABC repose sur le principe de la division du travail chez les abeilles o
trois phases sont identies, la phase des abeilles employs, la phase des abeilles onlookers
et la phase des scouts. Cette dernire est excute chaque i cycles pour sortir des minima
locaux et diversier les solutions.
Le fait que le processus de diversication ne s'excute que chaque i cycles conduit l'algorithme a rester entre temps dans des minima locaux. Ce problme a motiv l'hybridation
de l'algorithme ABC avec le modle prdateur et proies amlior.
Dans ce chapitre nous prsentons en dtail l'algorithme colonie d'abeilles articielles
ABC ainsi que le nouvel algorithme hybride ABC-PP qui est analys et compar avec un
ensemble d'algorithmes d'optimisation en appliquant des tests statistique non-paramtriques
pour dceler les dirences entre ABC-PP et ces algorithmes. Enn, l'algorithme ABC-PP
65

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
a t appliqu pour l'optimisation des paramtres d'un contrleur PID pour la commande
du pendule invers.

2 Optimisation par colonie d'abeilles articielles


2.1 Intelligence bio-inspire
la n des annes 80, une nouvelle voie d'exploration est apparue en intelligence
computationnelle. Il s'agit de l'tude et de l'utilisation des phnomnes observs dans la
nature.
L'intelligence en essaims est une branche de recherche qui modlise la population
d'agents en interaction, o des essaims sont capables de s'auto-organiser et de diviser le
travail entre eux. Une colonie de fourmis, un troupeau d'oiseaux ou un systme immunitaire est un exemple typique d'un systme essaim (cf. Figure 3.1).
En eet, ce sont des systmes composs d'agents trs simples, qui peuvent produire
des constructions complexes et des solutions des problmes non triviaux (tri, parcours
optimaux, rpartition de tches,...).
Les informaticiens ont repris les principes d'auto-organisation et d'mergence prsents
dans ces socits, pour dnir l'intelligence collective. Nous pouvons la dnir comme
 Toute tentative de concevoir des algorithmes distribus ou de rsolution de problmes
par des dispositifs inspirs par le comportement collectif des colonies d'insectes sociaux et
des socits animales  (Eberhart et al., 2001). Elle caractrise un systme o le travail collectif des entits (non complexes) interagissant entre elles, fait merger un comportement
complexe global.
Les avantages lis l'utilisation d'une telle approche sont :
 La production d'une performance collective suprieure celle des individus.
 Une plus grande adaptation et exibilit aux environnements rels (en gnral dynamiques).
 La abilit du systme dans son ensemble (la perte d'un agent ne met pas en cause
le processus gnral).
L'essaim utilise deux concepts fondamentaux pour obtenir un comportement intelligent :
L'auto-organisation et la division de travail (Seeley, 1995).

66

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

(a) Fourmis

(b) Abeilles

(c) Oiseaux
Figure

3.1: Exemples d'essaim

2.1.1 Auto-organisation
Elle peut tre dnie comme un ensemble de mcanismes dynamiques qui tablissent
les rgles de base concernant l'interaction entre les composants du systme. Les rgles
font en sorte que les interactions sont excutes sur la base des informations purement
locales sans aucun rapport avec le schma global. Les quatre proprits fondamentales sur
lesquelles repose l'auto-organisation des abeilles dans la ruche sont (Seeley, 1995) :

Rtroaction positive
Comme la quantit de nectar des sources de nourriture augmente, le nombre de leurs
visites par les abeilles augmente aussi.

Rtroaction ngative
Le processus d'exploitation des sources de nourriture pauvres est arrt par les
abeilles.

Fluctuations
Les scouts mnent un processus de recherche alatoire pour dcouvrir de nouvelles
sources de nourriture.

Interactions multiples
Les abeilles partagent leurs informations sur les sources de nourriture avec les onlookers sur la piste de danse.

67

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

Figure

3.2: Source de nourriture.

2.1.2 Division du travail


Dans le comportement des essaims, direntes tches sont excutes simultanment
par des agents spcialises. Il permet de rpondre aux conditions changeantes dans l'espace
de recherche (Eberhart et al., 2001).

2.2 Modle de comportement d'abeilles


Tereshko (Tereshko, 2000) dveloppait un modle de comportement de butinage d'une
colonie d'abeilles sur la base des quations de raction-diusion. Ce modle minimal de
la slection du butinage a conduit l'mergence de l'intelligence collective des essaims
d'abeilles.
Il se compose de trois lments essentiels : les sources de nourriture, les abeilles employes et les abeilles non employes et il dnit deux modes principaux du comportement :
le recrutement d'une source de nectar et de l'abandon d'une source.

2.2.1 Sources de nourriture


La valeur d'une source de nourriture (cf. Figure 3.2) dpend de nombreux facteurs tels
que sa proximit de la ruche, sa richesse, le got de son nectar ou de la concentration de
son nergie et la facilit d'extraction de cette nergie. Par souci de simplicit la rentabilit
d'une source de nourriture peut tre reprsente par une seule quantit (Seeley, 1995).

2.2.2 Abeilles employes


Elles sont associes une source de nourriture particulire dont elles en sont actuellement exploitantes (cf. Figure 3.3), elles transportent avec elles et partagent avec une
certaine probabilit des informations propos de cette source, sa distance, sa direction
de la ruche et sa rentabilit (Seeley, 1995).

68

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

Figure

3.3: Abeille employe exploitant une source de nourriture.

2.2.3 Abeilles non employes


Elles cherchent sans cesse des sources de nourriture exploiter. Il existe deux types
d'abeilles non employes : les scouts qui recherchent dans l'environnement entourant la
ruche pour de nouvelles sources de nourriture et les onlookers qui attendent dans la ruche
et choisissent une source de nourriture par le biais de l'information partage par les abeilles
employes (cf. Figure 3.4).
L'change d'informations entre les abeilles est l'vnement le plus important dans la
formation de la connaissance collective. La partie la plus importante de la ruche l'gard
de cet vnement est la piste de danse. La communication entre les abeilles lies la
qualit des sources de nourriture a lieu dans la rgion de la danse. Cette danse s'appelle
la danse frtillante (Seeley, 1995).
D'aprs les informations partages par les employes sur toutes les sources de nourriture autour du ruche ; un onlooker sur la piste de danse peut, probablement assister
de nombreuses danses et il y a une plus grande probabilit qu'il dcide de recruter la
source la plus rentable. Les abeilles employes partagent leurs informations avec une probabilit proportionnelle, travers la danse frtillante (cf. Figure 3.5). Par consquent, le
recrutement est proportionnel la rentabilit de la source de nourriture.

Figure

3.4: Un onlooker tente d'amliorer une source de nourriture.

69

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

Figure

3.5: Danse frtillante des abeilles.

2.3 Algorithme colonie d'abeilles articielles


L'algorithme colonie d'abeilles articielles(ABC) a t introduit par (Karaboga, 2005)
pour l'optimisation des fonctions.
Chaque solution reprsente une source de nourriture potentielle dans l'espace de recherche et la qualit de la solution correspond la qualit de la position alimentaire.
Les abeilles articielles cherchent exploiter les sources de nourriture dans l'espace de
recherche.

2.4 tapes de l'algorithme ABC


Pour trouver la solution optimale du problme d'optimisation de la forme (3.1) avec
l'algorithme ABC, les paramtres de contrle rsums dans la Table 3.1 sont initialiss (Karaboga et al., 2007).
M inX f (X), X = (x1 . . . xDim ).

(3.1)

Au dpart de l'algorithme, un ensemble de Ne sources de nourriture est initialis


alatoirement dans l'espace de recherche. Chaque solution est value par l'quation (3.2)
(Karaboga et al., 2007).
(
f iti =

1
fi +1

fi 0

1 + |fi | sinon

(3.2)

O fi est la fonction objectif value pour la solution i, f iti est la fonction tness.
L'algorithme ABC ritre trois phases jusqu' atteindre une qualit de solution o un
nombre maximum de cycles cmax souhaits. Ces phases sont la phase d'abeilles employes,
onlookers, et les scouts (Karaboga et al., 2007).

70

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
Table

Paramtre
cmax
N
Ne
No
Ns
Dim
Limit
T

3.1: Paramtres de l'algorithme ABC

Dsignation
Nombre maximal de cycles
Taille de la colonie
Nombre des abeilles employes
Nombre des onlookers
Nombre des scouts
Nombre de variables de dcision
Nombre de tentative d'amlioration d'une solution
Compteur de tentative d'amlioration d'une solution

Nature
Ct
C t (N est pair)
N e = N/2
No = N/2
Ct

, gnralement gal 1
Ct
Ct
Ti = 0 / i = 0..Ne

2.4.1 Phase des employes


Chaque abeille employe i tente d'amliorer sa situation par une recherche locale, elle
ralise les oprations suivantes (Karaboga et al., 2007) :
1. Gnration d'une nouvelle solution candidate par la formule (3.3).
vij = snij + ij (snij snkj )

(3.3)

o k (1, 2, ..., Ne ) et j (1, 2, ..., Dim) sont des indices choisis alatoirement et
k 6= i. ij est un nombre alatoire entre 1 et 1.
2. valuation de la solution candidate vij , en calculant fi , et la tness f iti par l'quation (3.2).
Si l'abeille employe i n'arrive pas amliorer la solution courante alors le compteur
T est incrment sinon il est mis 0 (Karaboga et al., 2007).
3. Calcul de la probabilit de la solution en utilisant l'expression suivante (Karaboga,

2005) :

pi =

f iti
Ne
P

(3.4)

f itg

g=1

2.4.2 Phase des onlookers


Aprs ; chaque onlooker j va raliser les oprations suivantes (Karaboga et al., 2007) :
1. Choisir une solution i avec une probabilit pi relie au tness des sources de nour-

riture partages par les employes (Karaboga et al., 2007).

2. Essayer d'amliorer la solution i en utilisant le mme mcanisme dcrit dans l'quation (3.3) (Karaboga et al., 2007).
3. valuer la solution i en utilisant l'quation (3.2).
71

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
Si une meilleure position est trouve par l'onlooker, la position de l'abeille employe qui
correspond cette solution est mise jour et son compteur est mis 0. Sinon, le compteur
correspondant est incrment (Karaboga, 2005).

2.4.3 Phase des scouts


Si la valeur du compteur T d'une employe ou d'une onlooker dpasse un certain seuil
limit, cette dernire abandonne sa position et devient un scout pour trouver une nouvelle
solution alatoire dans l'espace de recherche (Karaboga, 2005).

2.5 Discussion sur l'algorithme ABC


L'algorithme ABC est un algorithme d'optimisation trs intressant par ses qualits
par rapport aux autres algorithmes. Il a les avantages et les limites suivantes :

2.5.1 Avantages de l'algorithme ABC


1. Possibilit de paralllisation :
L'algorithme ABC est constitu de trois phases, abeilles employs, abeilles onlokers
et scouts. Les deux premires phases peuvent trs bien tre implmentes en utilisant les techniques de paralllisation ce qui conduit la rduction du temps global
de l'algorithme.
2. Nombre de paramtres de contrle :
L'algorithme ABC utilise un nombre minimal de paramtres , le nombre d'abeilles
qui contrle la taille de l'algorithme, le nombre maximum des cycles qui contrle
l'arrt du l'algorithme et enn le paramtre limit qui dcide quand changer une
source qui ne s'amliore pas par une autre alatoirement cre.

2.5.2 Limites de l'algorithme ABC


L'algorithme ABC comme la plupart des algorithmes d'optimisation dispose d'un mcanisme d'volution ( Employs et onlookers) et un mcanisme de diversication (scout).
La phase des scouts ne se produit pas chaque cycles mais le principe est d'incrmenter
un compteur pour les solutions qui ne s'amliorent pas dans le cycle courant jusqu'
atteindre un seuil Limit.
Fixer ce paramtre est un problme en lui mme, des petites valeurs peuvent liminer
une solution avant d'exploiter son voisinage en complet, tandis que des grandes valeurs
risquent de piger l'algorithme dans des minima locaux pour plusieurs cycles.
Nous proposons dans la section suivante d'hybrider l'algorithme ABC avec le modle
prdateur et proies amlior du chapitre prcdent pour accroitre la diversication.
72

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

3 Colonie d'abeilles articielles et prdateur et proies


amlior
Le modle P &P amlior est utilis dans les algorithmes d'optimisation pour renforcer
la diversication et lui permettre d'viter les minima locaux.
Dans cette section, une nouvelle approche ABC-PP base sur l'intgration du comportement P &P amlior (dcrit en Section 4.2 du Chapitre 2) dans l'algorithme ABC
pour l'acclrer et amliorer ses performances (Salem and Khel, 2013).
Dans ce contexte, la phase des scouts de l'algorithme ABC est remplace par le comportement Prdateur et proies amlior.
Les npred meilleures sources de nourriture seront initialises en prdateurs par l'quation (3.5) :
!
snpredi = snbi + 1

cmax

i = 1..npred .

(3.5)

Les sources de nourriture les plus proches des prdateurs sont remplaces par des sources
alatoires par la formule (3.6) :
/ 1..npred .
snic+1 = snic + e|dm | (snimax snimin ) ic

(3.6)

o dm est la distance entre la proie snic et le prdateur le plus proche donne par l'quation
suivante :
npred
(3.7)
dm = min d(snic , snpredj )
j=1

La nouvelle approche hybride ABC-PP est dtaille dans l'algorithme suivant :

73

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

input : N , cmax ,
output : Optimal solution
1 Initialize N , cmax , , npred ;
2 Ne = No = N/2;
3 Initialize start food sources;
4
5
6
7
8
9
10
11
12

while c < cmax do


for Each employed bee i do
Calculate fi and f iti ;
Create new source vi and apply greedy selection;

end
for Each onlooker i do
Compute probability pi ;
Select source using pi ;
Create new source vi and apply greedy selection;

13

end

14

Assign predators to best sources by Equation (3.5);

15
16
17
18
19

for Each employed bee i do

Compute distance to the closest predator with Equation (3.7);


Update the bee position with Equation (3.6);

end
end
Figure

3.6: AlgorithmeABC-PP

4 Analyse statistique des algorithmes PMBBO et ABCPP


An d'tudier les performances des deux algorithmes proposs (PMBBO et ABC-PP),
nous allons les comparer un ensemble d'algorithmes d'optimisation prsents dans la
session spciale de CEC2013(Special Session and Competition on Real Parameter Single
Objective Optimization) (Liang et al., 2013). Les algorithmes considrs sont : ICMAELILS (Liao and Stutzle, 2013), SMADE (Carani et al., 2013), TPC-GA (Elsayed et al.,
2013), fk-PSO (Nepomuceno and Engelbrecht, 2013). Le choix de ces algorithmes est
motiv par le fait qu'ils reprsentent chacun, une amlioration d'un algorithme connu :
Evolution strategy (ICMAELILS), Dierential Evolution (SMADE), Genetic algorithms
(TPC-GA) et Particle swarm optimization (fk-PSO).
La comparaison est ralise travers une panoplie de tests statistique. Pour eectuer
ces tests, des conditions d'utilisation des tests paramtriques doivent tre vris. Si ce
74

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
n'est pas le cas, nous aurons recours aux tests non-paramtriques pour une comparaison
par paires et multiple (Les rsultats des tests sont calculs par SPSS et MATLAB). La
procdure suivie est montre dans la Figure 3.7 :
Rsultats

Non

Conditions

Oui

Tests paramtriques

Tests nonparamtriques
Comparaison paires
Wilcoxon test
Comparaison multiple

pvalue <

Non

Pas de dirences

Oui
Post Hoc procedures

Estimation du contraste
Figure

3.7: Procdure de l'analyse statistique .

4.1 Paramtres de l'exprimentation


L'objectif de la comparaison est de trouver le minimum de 28 problmes dnis la
CEC2013 et lists ci-dessous (Liang et al., 2013) :
5 Fonctions Uni-modales :

- f1 : Sphere Function.
- f2 : Rotated High Conditioned Elliptic Function.
- f3 : Rotated Bent Cigar Function.
75

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

- f4 : Rotated Discus Function.


- f5 : Dierent Powers Function.
15 fonctions basiques Multimodales :

- f6 : Rotated Rosenbrock's Function.


- f7 : Rotated Schaers F7 Function.
- f8 : Rotated Ackley's Function.
- f9 : Rotated Weierstrass Function.
- f10 : Rotated Griewnk's Function.
- f11 : Rastrigin's Function.
- f12 : Rotated Rastrigin's Function.
- f13 : Non-Continuous Rotated Rastrigin's Function.
- f14 : Schwefel's Function.
- f15 : Rotated Schwefel's Function.
- f16 : Rotated Katsuura Function.
- f17 : Lunacek Bi_Rastrigin Function.
- f18 : Rotated Lunacek Bi_Rastrigin Function.
- f19 : Expanded Griewank's plus Rosenbrock's Function.
- f20 : Expanded Scaer's F6 Function.
8 fonctions composes :

- f21 : Composition Function 1 (n=5, Rotated).


- f22 : Composition Function 2 (n=3, Unrotated).
- f23 : Composition Function 3 (n=3, Rotated).
- f24 : Composition Function 4 (n=3, Rotated).
- f25 : Composition Function 5 (n=3, Rotated).
- f26 : Composition Function 6 (n=5, Rotated).
- f27 : Composition Function 7 (n=5, Rotated).
- f28 : Composition Function 8 (n=5, Rotated).
La description des 28 fonctions utilises, leurs minima analytiques, et leurs caractristiques peuvent tre trouves dans (Liang et al., 2013)).
Pour eectuer la comparaison, nous avons suivi les paramtres de l'exprimentation
dnis dans la CEC2013 pour pouvoir comparer nos deux algorithmes avec ceux de la
comptition (Liang et al., 2013)). Ainsi, chaque algorithme est excut 51 excutions
76

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
indpendantes pour chaque fonction avec une dimension D = 50 pour trouver le minimum
dans l'espace de recherche [100, 100]D . Le critre d'arrt est soit quand l'algorithme
atteint un nombre maximum d'valuations 100 D o la valeur de l'erreur soit infrieur
108 (Liang et al., 2013).
Les paramtres des algorithmes utiliss sont les mmes que dans leurs rfrences respectives tandis que les paramtres de nos deux algorithmes proposs sont dans la Table 3.2.
Les moyennes de l'erreur M oyer pour les valeurs minimales obtenues partir des 51
excutions sont reprsentes dans la Table 3.3.
Table

3.2: Paramtres des algorithmes PMBBO et ABC-PP

PMBBO
ABC-PP
Paramtre
Valeur
Paramtre
Valeur
Nombre d'habitats N
50
Nombre d'abeilles N
50
E,I
1
/
Nombre de prdateurs npred
50
Nombre de prdateurs npred
50

4.2 Conditions d'utilisation des tests paramtriques


Les tests statistiques sont gnralement utiliss pour tirer des dductions sur une o
plusieurs populations d'chantillons. Avant de commencer un test, deux hypothses sont
dnies, l'hypothse nulle qui stipule la non dirence entre les populations compares et
l'hypothse alternative qui suppose la prsence de dirence (Garcia et al., 2009).
Un test require la dnition d'un niveau de signication pour dterminer quel
niveau, l'hypothse peut tre rejete (Rsultat du test infrieur signie que l'hypothse
nulle est rejete). Quand les donnes analyser sont des relles, les tests paramtriques
sont souvent utiliss pour comparer les rsultats des algorithmes.
Pour utiliser des tests paramtriques, des conditions doivent tre vries (Sheskin,
2006), (Garcia et al., 2009). Ces conditions sont l'indpendance des chantillons compars,
leurs normalit et galit des variances (htroscdasticit).
Dans notre cas, les rsultats sont obtenus partir des excutions indpendantes avec
des individus initiaux gnrs alatoirement. L'analyse de la Normalit va tre acheve
par les tests de Kolmogorov-Smirnov et Shapiro-Wilk tandis que le test de Levene va tre
utilis pour vrier la htroscdasticit (Sheskin, 2006).

Test de Kolmogorov-Smirnov (Sheskin, 2006) :


Il fournit une p-value en se basant sur la comparaison des distributions accumules
des donnes observes avec celles d'une distribution gaussienne.

Test de Shapiro-Wilk (Shapiro and Wilk, 1965) :


77

f1
f2
f3
f4
f5
f6
f7
f8
f9
f10
f11
f12
f13
f14
f15
f16
f17
f18
f19
f20
f21
f22
f23
f24
f25
f26
f27
f28

Func

TPC-GA
0.0000E+00
4.7601E+05
1.0571E+08
3.3297E+00
4.7716E+04
4.7228E+01
4.1650E+01
2.1190E+01
7.4306E+01
1.0474E-01
5.5675E+01
9.8267E+01
1.9277E+02
2.5498E+03
9.8398E+03
3.6752E+00
1.1468E+02
1.6788E+02
8.9243E+00
2.3492E+01
7.9256E+02
3.5099E+03
1.0798E+04
3.7872E+02
3.8938E+02
4.2752E+02
2.0812E+03
4.5930E+02

SMADE
2.2700E-13
2.2700E-13
3.8100E+05
2.2700E-13
6.8200E-13
4.3000E+01
4.3200E+01
2.1100E+01
4.3600E+01
2.4700E-02
4.8100E+01
1.5700E+02
3.3500E+02
3.4100E+02
8.5400E+03
8.9600E-02
6.5700E+01
1.9300E+02
5.4300E+00
1.9200E+01
8.4600E+02
3.3900E+02
9.8900E+03
3.0000E+02
.6800E+02
2.9100E+02
1.1800E+03
1.0700E+03

fk-PSO
0.0000E+00
2.7600E+06
9.6800E+08
5.2500E+02
0.0000E+00
5.5100E+01
7.8100E+01
2.1100E+01
3.8500E+01
2.1300E+01
8.6100E+01
1.4500E+02
2.7400E+02
1.9600E+03
6.6300E+03
1.3000E+00
1.1600E+02
1.3200E+02
7.8200E+00
2.0600E+01
8.3400E+02
2.2200E+03
7.4000E+03
3.0000E+02
3.0000E+02
3.9000E+02
1.3200E+03
1.6300E+03

PMBBO
0.00E+00
2.11E+02
3.65E+03
1.69E+00
2.00E-03
3.70E+01
2.30E+01
2.11E+01
4.52E+01
8.50E-01
3.28E+01
1.05E+02
1.55E+02
9.56E+03
7.11E+03
2.20E+00
8.72E+01
1.46E+02
5.10E+00
2.20E+01
6.60E+02
7.75E+02
6.84E+03
3.44E+02
3.41E+02
2.11E+02
1.56E+03
8.52E+02

ABC-PP
0.0000E+00
0.0000E+00
0.0000E+00
0.0000E+00
0.0000E+00
0.0000E+00
1.0E-01
1.18E+01
1.95E+00
0.0000E+00
1.256E+00
2.895E+00
8.897E+00
1.11458E+02
1.00621E+03
2.548E-02
2.42514E+01
2.94587E+01
0.95689E+00
1.0584E+01
9.22003E+01
1.15487E+02
1.69237E+02
9.2514E+00
1.21022E+02
8.9154E+01
7.90252E+02
1.55251E+02

3.3: Moyennes de l'erreur pour les 28 fonctions benchmark.

ICMAELILS
1.0000E-08
1.0000E-08
2.0100E-02
1.0000E-08
1.5200E-08
4.1900E+01
5.4400E-01
2.1100E+01
8.1800E+00
1.0000E-08
5.9400E+00
5.7700E+00
5.7300E+00
8.5900E+02
6.4200E+02
6.2800E-01
5.7500E+01
6.4300E+01
3.6200E+00
2.4400E+01
2.0000E+02
5.8700E+02
5.5700E+02
2.0000E+02
2.7400E+02
2.4100E+02
3.0200E+02
4.0000E+02

Table

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

78

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
Il calcule le niveau de symtrie et l'aplatissement (kurtosis) des populations observes et obtient les dirences par rapport une distribution gaussienne en calculant
une p-value partir de la somme de leurs carres.
Le rsultat des tests de normalit est une p-value qui reprsente la dissemblance des
rsultats des chantillons avec une loi normale. Un niveau de signication = 0.05 est
choisi. Si la p-value obtenue est plus leve que , elle indique que l'hypothse nulle est
accepte ce qui signie que la condition de la normalit est vrie.
La Table 3.4 montre les rsultats des tests de la normalit (Kolmogorov-Smirnov et
Shapiro-Wilk) appliqus sur nos exprimentations.
Toutes les p-values obtenues partir des tests de normalit sont infrieures au niveau
de signication conduisant au rejet de l'hypothse nulle et donc les rsultats de la
Table 3.3 ne sont pas normalement distribus.
Table

Algorithme
ICMAELILS
TPC-GA
SMADE
fk-PSO
PMBBO
ABC-PP

3.4: Tests de normalit.

Kolmogorov-Smirnov
Shapiro-Wilk
Statistique p value Statistique p value
.299
.000
.722
.000
.530
.000
.190
.000
.490
.000
.203
.000
.534
.000
.189
.000
.372
.000
.529
.000
.337
.000
.461
.000

Test de Levene (Levene, 1960)


Il est utilis pour vrier s'il existe ou non une homognit de variance (homoscedasticity) entre k chantillons.

les rsultats du test de Levene sont dans la Table 3.5. Ils montrent que les variances des
distributions des dirents algorithmes ne sont pas homognes pour certains problmes.
Puisque les deux conditions de normalit et homognit des variances ne sont pas vries, l'application des tests paramtriques est impossible ce qui nous conduit appliquer
les tests non-paramtriques dans la prochaine section.

4.3 Tests non-paramtriques


Les tests non-paramtriques sont des tests bass sur le classement (ranking based tests)
utiliss lorsque les hypothses imposes par les tests paramtriques ne sont pas remplies.
Ils sont connus pour tre moins restrictifs et moins robustes que les tests paramtriques.
Cette section commence par tudier le comportement de l'algorithme ABC-PP dans une
comparaison par paires avec le reste des algorithmes considrs en utilisant le test de
79

Algorithme
ICMAELILS
SMADE
TPC-GA
fk-PSO
PMBBO
ABC-PP
Algorithme
ICMAELILS
SMADE
TPC-GA
fk-PSO
PMBBO
ABC-PP
f2

.02
.00
.00
.05
.00
.00
f16

.00
.00
.01
.00
.01
.00

f1

.01
.00
.00
.00
.00
.00
f15

80
.0
.00
.0
.01
.00
.00

.00
.00
.02
.00
.01
.02

f17

.02
.00
.04
.06
.02
.02
.06
.00
.06
.00
.00
.07

f18

.06
.03
.05
.06
.07
.07

f4

.01
.01
.00
.01
.01
.00

f19

.01
.00
.01
.00
.00
.00

f5

.00
.01
.00
.00
.00
.00

f20

.00
.01
.00
.00
.00
.00

f6

.00
.00
.00
.02
.00
.00

f21

.01
.00
.00
.00
.00
.00

f7

.01
.00
.00
.06
.00
.00

f22

.00
.05
.06
.00
.00
.00

f8

.00
.00
.00
.01
.00
.00

f23

.01
.00
.01
.01
.00
.00

f9

.00
.00
.01
.08
.00
.00

f24

.00
.00
.00
.00
.00
.00

f10

.01
.01
.01
.01
.00
.01

f25

.01
.01
.01
.05
.01
.01

f11

3.5: Test de htroscedasticit de Levene.

f3

Table

.01
.00
.01
.01
.01
.00

f26

.01
.02
.00
.01
.00
.00

f12

.00
.00
.00
.01
.01
.01

f27

.01
.01
.00
.01
.01
.01

f13

.01
.00
.00
.01
.00
.00

f28

.00
.01
.00
.01
.00
.00

f14

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
Wilcoxon. Nous nous concentrerons aprs sur une comparaison de 1xn avec ABC-PP
comme une mthode de contrle. Le test de Friedman et ses drives sont alors appliqus.
Enn, les procdures post-hoc sont utilises pour dceler les dirences dtectes par le
test de Friedman et ses alternatives (Derrac et al., 2011).

4.3.1 Comparaisons par paires : Test de Wilcoxon signed ranks


Le test de Wilcoxon est un test non paramtrique qui compare deux groupes apparis
(algorithmes) dans le but de dtecter des dirences signicatives entre leurs comportements. Il est considr comme l'quivalent non paramtrique du t-test. Le test calcule
essentiellement la dirence entre chaque ensemble de paires et analyse ces dirences. Le
test de Wilcoxon peut tre utilis pour accepter (ou rejeter) l'hypothse nulle que deux
chantillons reprsentent deux populations direntes. Le test est eectu comme suit
(Garcia et al., 2009) :
Calculer la dirence signe pour chaque paire de donnes.
Classer les valeurs absolues des dirences (rangs moyens sont aects en cas d'ga-

lit).
Calculer R+ , R la somme des rangs des dirences positives et les rangs des dif-

frences ngatives respectivement. Les rangs des dirences nulles sont rpartis de
manire quitable entre les deux sommes. Un rang est ignor en cas de nombre
impair de dirences gales.
Utiliser la valeur de T = min(R+ , R ) pour dterminer la p-value p du test l'aide

d'un tableau statistique approprie (Zar, 2009).


L'hypothse nulle est rejete lorsque p < .
Le test de Wilcoxon est eectu pour comparer l'algorithme ABC-PP avec chacun des
cinq autres algorithmes pris en compte dans l'exprimentation.
La Table 3.6 montre les valeurs de R+ , R et les p-values calcules pour toutes les
paires d'algorithmes impliquant ABC-PP.
Comme l'indique la Table, les p-values obtenues sont suprieures ce qui implique
l'acceptation de l'hypothse nulle pour tous les pairs des algorithmes compars. Ceci
signie que l'algorithme ABC-PP est meilleur que les algorithmes PMBBO, fk-PSO ,
TPC-GA , ICMAELILS et SMADE avec = 0, 05.

81

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
Table

3.6: Rsultats du test de Wilcoxon.

Pair

ABC-PP vs ICMAELILS
ABC-PP vs SMADE
ABC-PP vs TPC-GA
ABC-PP vs fk-PSO
ABC-PP vs PMBBO

R+

228.0 48.0
299.0 1.0
405.0 1.0
377.0 1.0
377.0 1.0

p-value
.21
.313
.051
.54
.54

4.3.2 Comparaison multiple avec une mthode de contrle


L'inconvnient majeur de la comparaison par paires est qu'il n'est pas possible d'extraire une conclusion partir de plus d'une comparaison par paires. Cela est d au fait
que les p-values des comparaisons sont indpendantes et en essayant de tirer une signication statistique partir d'elles, conduira une perte de contrle sur le taux d'erreur
cot famille (Family-Wise Error Rate FWER) (Derrac et al., 2011).
Un test de comparaison multiple avec une mthode de contrle doit tre utilis pour comparer plus de deux algorithmes. Dans ce cas, le test de Friedman et ses extensions sont
les plus appropris pour eectuer cette comparaison.

Test de Friedman

Le test de Friedman (Friedman, 1937), est l'alternative non-paramtrique du test


d'ANOVA avec des mesures rptes. Il est utilis pour tester les dirences entre les
groupes lorsque la variable dpendante mesure est ordinale. Il peut galement tre utilis
pour les donnes continues qui enfreindraient les hypothses ncessaires pour excuter le
test ANOVA.
L'hypothse nulle pour le test de Friedman statue sur l'galit des mdianes entre
les populations. La procdure du test de Friedman, comparant k algorithmes pour n
problmes, est rsume comme suit :
1. Attribuer des rangs dans l'ordre croissant des algorithmes considrs pour chaque
problme i, du meilleur au pire (de 1 k). En cas d'galit, des rangs moyens sont
calculs.
2. Calculer Rj la moyenne des rangs de chaque algorithme :
n

1X j
r j = 1..k
Rj =
n i=1 i

o rij est le rang de l'algorithme j pour le problme i.


3. Calculer la mesure de Friedman par l'quation (3.9) (Friedman, 1937).
82

(3.8)

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
X
12n
k(k + 1)2
M=
Rj2
k(k + 1) j
4

(3.9)

La signication de M peut tre calcule quand n > 10 et k > 5 mais lorsque la valeur de
k et/ou n dpasse ces seuils, la signication de M peut tre recherche dans la table de
distribution 2 avec k 1 degrs de libert (Sheskin, 2006).

Test de Iman et Davenport

Le test de Iman and Davenport est un test non-paramtrique moins conservateur (Iman
and Davenport, 1980), driv du test de Friedman, son statistique est donne par :
MID =

(n 1)M
n(k 1) M

(3.10)

qui suit une distribution F avec k 1 et (k 1)(n 1) degrs de libert. Les tableaux
statistiques pour les valeurs critiques peuvent tre trouvs dans (Sheskin, 2006).
Lorsque le nombre des algorithmes considrs est faible, le test de Friedman est moins
sensible aux dirences entre les traitements. Cela est d au fait que dans le test de Friedman, les observations sont classs au sein d'un problme (Derrac et al., 2011).

Test des rangs aligns de Friedman

Dans le test des rangs aligns (Aligned ranks) de Friedman, la mesure de chaque
problme est la performance moyenne ralise par tous les algorithmes pour ce problme.
Les observations aligns sont la dirence entre la performance d'un algorithme pour un
problme donn et la valeur de sa mesure (Hodges and Lehmann, 1962).
Les observations alignes pour tous les algorithmes et tous les problmes sont ensuite
classes partir de 1 nk . Ces rangs sont appels les rangs aligns (Hodges and Lehmann,
1962).
La statistique du test est dcrite dans l'quation (3.11) :
!
(k 1)
MAR =

Pk

j=1

j2 (kn2 )/4(kn + 1)2


R

kn(kn + 1)(2kn + 1)/6 (1/k)

Pn

2
i=1 Ri

(3.11)

o R i est la somme des rangs du iime problme et R j est la somme des rangs du j ime
algorithme. La statistique du test est compare avec une distribution 2 avec k 1 degrs
de libert.

Test de Quade

Le test de Quade est souvent plus puissant que le test de Friedman (Quade, 1979). Il
limine galement les dirences de blocs.
83

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
A la dirence du test de Friedman, le test de Quade considre que les problmes
n'ont pas la mme importance en introduisant les gammes des problmes dans le calcul
statistique du test. La gamme d'un problme est la dirence entre le maximum et le
minimum pour tous les algorithmes (il y a n gammes : q1 ..qn ).
La procdure du test de Quade est la suivante :
1. Le test commence par le calcul de rij comme le test de Friedman.
2. La gamme du problme qi est multipli par la dirence entre le rang au sein du
problme i, rij et le rang moyen k+1
, pour obtenir l'quation (3.12)
2
!

(3.12)

Sij = qi rij (k + 1)/2

o Sij est la taille relative de chaque observation dans le problme, ajuste pour tenir
compte de l'importance relative du problme dans lequel elle apparat (Conover, 1999).
Sj est la somme pour l'algorithme j :
Sj =

n
X

(3.13)

Sij

i=1

Soit Wj = ni=1 qi rij j = 1..k .


La statistique du test de Quade est donne par :
P

MQ = |

(n 1)B
|
AB

(3.14)

o A et B sont donns par :


A=

n X
k
X

Sij2

i=1 j=1

B=

k
X

Sj2

(3.15)

j=1

MQ suit une F-distribution avec k 1 et (k 1)(n 1) degrs de libert (Les valeurs


critiques peuvent tre trouves dans la Table A10 dans (Sheskin, 2006). Si A = B , le

point se trouve alors dans la rgion critique de la distribution statistique et la p-value est
gale (1/k!)b1 (Conover, 1999), (Derrac et al., 2011).
Si la p-value des tests de Friedman, Iman-Davenport, Friedman Aligned Ranks, et
Quade est infrieure au niveau de signication choisi alors l'hypothse nulle est rejete
ce qui signie qu'il y a des dirences entre les algorithmes compars (Derrac et al., 2011).
D'aprs la Table 3.7 qui reprsente les rangs moyens, les statistiques et p-values obtenus
des trois tests, les tests de Friedman, Friedman Aligned Ranks, et Quade illustrent ABCPP comme le meilleur algorithme de la comparaison avec un rang de 5.82142, 127.48214 et
5.81896 respectivement dans le mme temps notre deuxime algorithme PMBBO est class
en 3ime position par le test de Friedman avec un rang de 3.17857 tandis que Friedman
84

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
aligned et Quade le classent la 4ime position avec un rang moyen de 76.21428 et 3.07512
respectivement.
Les p-values calcules par chaque test sont infrieures ce qui suggre l'existence
des dirences signicatives entre les algorithmes compars. Dans la sous section suivante,
des procdures Post-hoc vont tre utilises pour dterminer la nature des dirences entre
la mthode de contrle ABC-PP avec les autres algorithmes.
Table

3.7: Rangs moyens des tests Friedman, Aligned Friedman et Quade

Algorithme

Friedman

Aligned Friedman

Quade

ICMAELILS
TPC-GA
SMADE
fk-PSO
PMBBO
ABC-PP
Statistic
p-value

4.44642
1.94642
3.107142
2.5
3.17857
5.82142
79.64795
4.76899E-11

119.08928
59.51785
76.26785
48.42857
76.21428
127.48214
22.508262
4.19022E-4

4.65763
1.83866
3.14901
2.46059
3.07512
5.81896
31.57937
-2.22041E-16

4.3.3 Procdures Post-hoc


Le rejet de l'hypothse nulle (quivalence des rangs) par les tests de Friedman, Friedman align, et de Quade peut seulement dtecter des dirences signicatives sur l'ensemble de la comparaison multiple. An d'eectuer des comparaisons valables entre l'algorithme ABC-PP (la mthode de contrle) et chacun des autres algorithmes, les procdures
post-hoc sont utiliss pour dterminer o se situent les dirences spciques. Dans ce
contexte, une famille de k 1 hypothses interdpendantes peut tre dnie par rapport
la mthode de contrle et un test post-hoc peut obtenir une p-value qui dtermine le
degr de rejet de chaque hypothse.
La p-value de chacune des hypothses dans la famille peut tre obtenue par la conversion
des rangs calculs par chaque test l'aide d'une approximation normale. La statistique
z pour comparer le iime et le j ime algorithme pour chaque test de classement (Friedman,
aligns Friedman et Quade) est calcule comme suit (Derrac et al., 2011) :

Friedman :
(Ri Rj )
z= q
k(k+1)
6n

(3.16)

o Ri et Rj sont les rangs moyens des algorithmes compars obtenus par le test de
Friedman.
85

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

Aligned Friedman :
(Ri Rj )
z= q
k(k+1)
6n

(3.17)

o Ri et Rj sont les rangs moyens des algorithmes compars obtenus par le test de
Friedman (Derrac et al., 2011).

Quade :
z=q

(Ti Tj )
k(k+1)(2n+1)(k1)
18n(n+1)

(3.18)

Wj
Wi
o Ti = n(n+1)/2
, Tj = n(n+1)/2
, Wi et Wj sont les rangs sans ajustement moyen de
l'algorithme compar obtenus par le test de Quade.

La valeur de z est utilise dans toutes les procdures post hoc pour trouver la p-value
correspondante partir d'une distribution normale. Cette valeur est compare avec le
niveau de signication . La dirence entre ces procdures est dans la manire avec
laquelle la valeur de est ajuste pour compenser l'eet de la comparaison multiple.
Les p-values pour chaque comparaison obtenues par le test de Friedman et ses alternatives ne prennent pas en compte les comparaisons restantes. Pour traiter ce problme, il
est recommand d'utiliser les p-values ajustes (APV) parce que les procdures post-hoc
changent le niveau de signication pour chaque paire de comparaison (Derrac et al.,
2011).
Les procdures post-hoc implmentes et leur p-values ajustes sont dcrites ci-dessous
o pi est la p-value calcule pour la iime hypothse et AP Vi est sa valeur ajuste (Derrac
et al., 2011).
1. Procdure de Bonferroni-Dunn
La procdure de Bonferroni-Dunn ajuste la p-value en divisant la valeur de par
le nombre de comparaisons eectues k 1 (Dunn, 1961).
AP Vi = min((k 1)pi , 1).

2. Procdure de Holm
C'est une procdure step down o les p-values pi obtenues partir des k 1 comparaisons sont classes dans un ordre croissant(1 k 1).
L'hypothse H1 est rejete par rapport l'hypothse Hi1 si i est le plus petit en86

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
tier tel que pi > /(k 1). Si l'hypothse nulle ne peut pas tre rejete, toutes les
hypothses restantes sont retenues (Holm, 1979).
La p-value ajuste est :
AP Vi = min(max((k j)pj ), 1), 1 j i.

3. Procdure de Holland
Dans cette procdure, la valeur de est ajuste de faon similaire la mthode
de Holm. H1 est rejete par rapport Hi1 si i est le plus petit entier tel que
pi > 1 (1 )ki (Holland, 1987).
AP Vi = min(max(1 (1 pj )kj ), 1), 1 j i.

4. Procdure de Finner
Dans cette procdure, H1 est rejete par rapport Hi1 si i est le plus petit entier
tel que pi > 1 (1 )(ki)/i (Finner, 1993).
AP Vi = min(max(1 (1 pj )(k1)/j , 1), 1 j i).

5. Procdure de Hochberg
Cette procdure rejette Hi1 par rapport H1 si i est le plus grand entier tel que
pi > /(k i) (Hochberg, 1988).
AP Vi = max((k j)pj ), k 1 j i.

6. Procdure de Hommel
Cette procdure essaye de trouver le plus grand j pour lequel pnj+k > k/j o
1 k j . Si j existe, la procdure rejette toutes les hypothses vriant pi /j
sinon, toutes les hypothses sont rejetes.
La AP Vi pour cette procdure est calcule par un algorithme qui peut tre trouv
dans (Hommel, 1988).
7. Procdure de Rom
Cette procdure opre de la mme faon que la procdure de Hochberg, mais la
valeur de est calcule par l'quation suivante (Rom, 1990) :
ki =

Pi1

j=1

87

Pi2

i
j=1 k

ij
k1j
]

(3.19)

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
o k1 = et k2 = /2.
AP Vi : max((rkj )pj ), (k 1) j i, o rkj est obtenu de l'quation prcdente
(rj = 1, 2, 3, 3.814, 4.755, ...).

8. Procdure de Li
L'approche de Li est base sur deux tapes pour rejeter des hypothses (Li, 2008) :
- Si pk1 alors rejeter toutes les hypothses sinon accepter l'hypothse associe
pk1 .
- Rejeter toutes autres hypothse Hi avec pi (1 pk1 )/(1 ).
AP Vi : pi /(pi + 1 pk1 ).

Rsultats des procdures post-hoc


La Table 3.8 montre les p-values ajustes obtenues pour les procdures post-hoc en
utilisant les rangs des tests de Friedman, Friedman Aligned, et Quade. Les seuils de rejet
pour les procdures pour chaque test sont dans la Table 3.9.
D'aprs la Table 3.8 et la Table 3.9, nous pouvons remarquer que :
L'algorithme ABC-PP est donn gagnant par toutes les procdures appliques sur les

tests de Friedman et Quade. Les rsultats obtenus dans la Figure 3.8 et Figure 3.10
montrent que les p-values obtenues par ces procdures sont trs infrieures au seuil
de rejet (en noir dans les gures). Ceci indique que ABC-PP est donn meilleur que
les autres avec une grande marge de rejet.
Pour le cas du test de Friedman-Aligned, l'algorithme ABC-PP est meilleur que

fk-PSO, TPC-GA, PMBBO et SMADE par toutes les procdures.


Les procdures de Hochberg, Hommel, Rom et Finner appliques sur le test de

Friedman-Aligned ont montr que ICMAELILS est meilleurs que notre algorithme
ABC-PP. Cette dirence entre les deux algorithmes(ABC-PP et ICMAELILS) est
minime (cf. Figure 3.9) et l'hypothse nulle est rejete avec une p-value trs proche
du seuil du rejet.
La procdure de Hochberg ncessite le plus petit niveau de conance = 0.0125

(Bonferonni-Dunn n'utilise pas les valeurs ajustes).


En ce qui concerne les procdures post-hoc utilises, les dirences de puissance entre
les mthodes sont plutt petites, avec certaines exceptions. Le test de Bonferroni-Dunn
ne doit pas tre utilis malgr sa simplicit, car il s'agit d'un test trs conservateur et il
ne peux pas dtecter de nombreuses dirences.
Cinq procdures (Holm, Hochberg, Hommel, Holland, et Rom) ont un eet semblable.
Bien que les procdures Hommel et Rom sont les plus puissants, ils sont aussi plus di88

89

Test

Friedman

Fried Aligned

Quade

ABC-PP vs

TPC-GA
fk-PSO
SMADE
PMBBO
ICMAELILS

fk-PSO
TPC-GA
PMBBO
SMADE
ICMAELILS

TPC-GA
fk-PSO
PMBBO
SMADE
ICMAELILS

5
4
3
2
1

5
4
3
2
1

5
4
3
2
1

1.09E-5
0.00183
0.0029526
0.0034368
0.0098386

1.19E-9
5.46E-8
0.016115
0.016284
0.019682

9.18E-15
5.73E-7
0.001372
0.002026
0.0026823

p-value

5.45E-5
0.00919
0.0014763
0.00171844
0.0098386

5.97E-9
2.73E-7
0.0080585
0.008142
0.009841
5.45E-5
0.00735
0.0088578
0.0088578
0.0098386

5.97E-9
2.18E-7
0.004835
0.004835
0.019682

Holm
4.59E-14
2.29E-6
0.004118
0.004118
0.0026823

5.45E-5
0.00735
0.0068738
0.0068738
0.0098386

5.97E-9
2.18E-7
0.0032565
0.0032565
0.019682

Hoch
4.59E-14
2.29E-6
0.004052
0.004052
0.0026823

5.45E-5
0.00735
0.0059052
0.0068738
0.0098386

5.97E-9
2.18E-7
0.0032235
0.0032565
0.019682

5.45E-5
0.00733
0.0076144
0.0076144
0.0098386

5.97E-9
2.18E-7
0.004681
0.004681
0.019682

Procedures
Homm
Holl
4.59E-14 4.60E-14
2.29E-6
2.29E-6
0.003039 0.004062
0.004052 0.004062
0.0026823 0.0026823

3.8: p-values Ajustes pour les procdures post-hoc

Bonf
4.59E-14
2.86E-6
0.006864
0.0010131
0.0034116

Table

5.18E-5
0.00701
0.0068738
0.0068738
0.0098386

5.67E-9
2.08E-7
0032565
0.0032565
0.019682

Rom
4.36E-14
2.18E-6
0.004052
0.004052
0.0026823

5.45E-5
0.00459
0.0046746
0.0046746
0.0098386

5.97E-9
1.36E-7
0.002657
0.002657
0.019682

Finn
4.60E-14
1.43E-6
0.002277
0.002526
0.0026823

2.14E-5
0.00360
0.004503
0.0050548
0.0098386

1.96E-9
9.01E-8
0.0025235
0.0025485
0.019682

Li
1.25E-14
7.83E-7
0.001841
0.002694
0.0026823

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

Test
Friedman
Friedman aligned
Quade
0.01
0.01
0.01

Bonf-Dunn
0.025
0.0125
0.0125

Hochberg

Holland

0.05
0.0500
0.025
0.016952
0.0166666 0.016952

Hommel

3.9: Seuils de rejet des procdures

0.05
0.01666
0.0166666

Holm

Table

0.025
0.013109
0.0131093

Rom

0.0500
0.030307
0.03030

Finner

0.0385
0.03191
0.02674

Li

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

90

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
ciles tre applique. Une bonne alternative est d'utiliser le test Finner, qui est facile
comprendre et ore de meilleurs rsultats que les autres, l'exception de la procdure de
Li dans certains cas (Derrac et al., 2011).

0.05
fkPSO
TPCGA
PMBBO
SMADE
ICMAELILS
Seuil de rejet

0.04
0.03
0.02
0.01
0

BonfDunn

Figure

Holm

Hochberg

Hommel

Holland

Rom

Finner

Li

3.8: Rsultats des procdures post-hoc, Test de Friedman

fkPSO
TPCGA
PMBBO
SMADE
ICMAELILS
Seuil de rejet

0,02

0,015

0,01

0,005

0
BonfDunn

Figure

Holm

Hochberg

Hommel

Li

Finner

Rom

Holland

3.9: Rsultats des procdures post-hoc, Test de Friedman Aligned

0.035
TPCGA
fkPSO
PMBBO
SMADE
ICMAELILS
Seuil de rejet

0.03
0.025
0.02
0.015
0.01
0.005
0

BonfDunn

Figure

Holm

Hochberg

Hommel

Holland

Rom

Finner

3.10: Rsultats des procdures post-hoc, Test de Quade


91

Li

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior

4.4 Estimation du contraste


Le test d'estimation du Contraste base sur les mdianes (Doksum, 1967) peut tre
utilis pour estimer la dirence entre les performances de deux algorithmes. Il suppose
que les dirences attendues entre les performances des algorithmes sont les mmes pour
tous les problmes. Par consquent, ces performances sont rchies par l'amplitude des
dirences entre elles dans chaque problme.
L'intrt de ce test rside dans l'estimation du contraste entre les mdianes des chantillons du rsultats compte tenu de toutes les comparaisons par paires. Le test obtient
une dirence quantitative calcule par mdianes entre deux algorithmes sur plusieurs
problmes, il procde comme suit.
Pour chaque paire des k (k = 6) algorithmes, calculer la dirence entre les performances des deux algorithmes pour chacun des n problmes.
Di(u,v) = M oyerui M oyervi .

(3.20)

o i = 1..n ; u = 1..k ; v = 1..k et u v


Trouver la valeur mdiane de chaque groupe de dirences (Zuv , qui peut tre considr comme l'estimateur non ajust des mdianes des algorithmes u et v , Mu Mv ).
Puisque Zuv = Zvu , il n'est ncessaire de calculer Zuv que dans les cas o u < v .
Notez galement que Zuu = 0.
Calculer la moyenne de chaque ensemble de mdianes avec le mme indice, mu :
Pk
mu =

j=1

Zuj

, u = 1..k.

(3.21)

L'estimateur de Mu Mv est mu mv , o u et v sont dans l'intervalle 1...k . Par


exemple, la dirence entre M1 et M2 est estime par m1 m2 .
Ces estimateurs peuvent tre considrs comme une mesure globale avance des performances. Bien que ce test ne peut pas fournir une probabilit d'erreur associe avec le
rejet de l'hypothse nulle d'galit, il est particulirement utile pour estimer la distance
par laquelle un algorithme surpasse l'autre.
Les rsultats de l'estimation du contraste des algorithmes compars sont dans la
Table 3.10 (Garcia et al., 2010).
Ces rsultats viennent conrmer ceux obtenus par les procdures post-hoc. En eet,
dans la Table 3.10, les estimateurs de ABC-PP par rapport aux cinq algorithmes sont
ngatives ce qui signie qu'il a obtenu des taux d'erreurs trs bas par rapport aux estimateurs mdianes en le comparant aux algorithmes cits.
En plus, la ligne de PMBBO contient des valeurs ngatives par rapport aux algorithmes
TPC-GA, SMADE et fk-PSO ce qui conrme les rsultats du test de Friedman en classant
PMBBO devant ces algorithmes.
92

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
La conclusion que nous pouvons tirer partir de l'analyse statistique est que l'algorithme ABC-PP montre une amlioration remarquable par rapport aux algorithmes
TPC-GA, fk-PSO, PMBBO, SMADE et ICMAELILS.
Mme le deuxime algorithme propos PMBBO a donn de bons rsultats et il s'est
class avant les algorithmes TPC-GA, SMADE et fk-PSO.
Table

ICMAELILS
TPC-GA
SMADE
fk-PSO
PMBBO
ABCPP

3.10: Estimation du Contraste

ICMAELILS
0,000
94,06
67,51
90,78
65,03

TPC-GA

SMADE

fk-PSO

PMBBO

-94,06

-67,51

-90,78

-65,03

0,000

3,282
-23,27

-3,282

26,55
0,00
23,27

-29,03

-2,479

-25,74

29,03
2,479
25,74
0,000

-43,91

-138,0

-111,4

-134,7

-108,9

-26,55

0,000

ABCPP
43,91
138,0
111,4
134,7
108,9
0,000

5 Rglage d'un contrleur PID par l'approche ABC-PP


Pour appliquer l'algorithme ABC-PP pour le rglage des gains Kp , Ki , Kd d'un contrleur PID, chaque combinaison de gains est considre comme une source de nourriture
(solution candidate). L'objectif est de minimiser l'erreur entre la sortie et la sortie dsire
en utilisant la fonction fg dnit en quation (2.23). L'algorithme propos est utilis pour
ajuster les paramtres d'un contrleur PID pour commander le pendule invers.
Une comparaison des performances de l'algorithme ABC-PP avec les algorithmes gntiques (AG) a t eectue en utilisant les paramtres prsents dans la Table 3.11.
Nous avons utilis la fonction objectif fg avec beta = log(2) pour comparer l'approche
ABC-PP avec les rsultats des algorithmes gntiques(AG).
Nous avons mesur les couts minimaux de la fonction objectif pour les deux algorithmes, les rsultats sont dans la Figure 3.11. L'volution des gains du PID pour l'algorithme ABC-PP est dans la Figure 3.12.
Nous pouvons remarquer que l'algorithme ABC-PP a atteint un cot plus petit que
les AG (2.90). Les erreurs de l'angle du pendule sont dans la Figure 3.13.
Le dpassement a t rduit 0.01Rad tandis qu'il est de 0.06Rad pour les AG dans
les mmes conditions.
Dans la Table 3.12, nous avons rsum les rsultats de la comparaison entre notre
algorithme (ABC-PP) et les algorithmes gntiques pour 10 excutions indpendantes.
Il est clair que les gains obtenus par ABC-PP amliorent les performances du systme.
ABC-PP a obtenu de meilleurs temps de rponse en 7 cas, plus petit dpassement dans 9
cas par rapport aux algorithmes gntiques (cf. Table 3.12).
93

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
Table

3.11: Paramtres de ABC-PP pour l'optimisation d'un PID

Paramtre

Valeur

Taille de la colonie (N )
30
Nombre Maximum d'valuations 10000
Nombre de prdateurs
6

Fonction objective

3
2.98

ABC-PP
GA

2.96
2.94
2.92
2.9

10

12

14

16

18

20

22

24

26

28

30

Cycles
Figure

3.11: Valeurs minimales de la fonction objectif obtenues par ABC-PP et les AG)

25

Gains

20

Kp
Kd
Ki

15
10
5
0
0

10

12

14

16

18

20

22

24

26

Cycles
Figure

3.12: volution des gains PID obtenus par ABC-PP

94

28

30

Angle (Rad)

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
0

ABC-PP
GA
0.2

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

Tiemps(s)

f
Figure

Table

3.13: Erreurs angulaires obtenues par ABC-PP et les AG

3.12: Performance du pendule invers contrl par PID (ABC-PP et les AG)
Excution
1
2
3
4
5
6
7
8
9
10

ABC-PP
Min tness Tr (s) Omax

Min tness Tr (s) Omax

2.900
2.921
2.935
2.922
2.928
2.947
2.928
2.936
2.939
2.911

2.931
2.902
2.972
2.928
2.981
2.968
2.994
2.913
3.015
2.910

0.155
0.160
0.194
0.172
0.171
0.208
0.180
0.191
0.197
0.178

0.012
0.012
0.014
0.011
0.012
0.015
0.012
0.014
0.014
0.012

GA
0.112
0.158
1.783
0.175
1.730
2.301
4.117
0.167
4.360
0.164

0.060
0.014
0.018
0.020
0.020
0.048
0.014
0.013
0.031
0.013

6 Conclusion
Dans ce chapitre, une tentative d'amlioration de l'algorithme d'optimisation par colonie d'abeilles articielles est prsente an d'accroitre son eet de diversication. Il a t
hybrid en remplaant la phase des scouts avec l'algorithme prdateur et proies amlior.
Pour valider l'algorithme obtenu (ABC-PP), une tude statistique a t ralise en le
comparant l'algorithme PMBBO prsent au chapitre 2 et quatre autres algorithmes
d'optimisation issus de la comptition CEC2013.
Dans le but d'appliquer les tests paramtriques, des conditions pralables ont t
vries sans succs (Normalit et galit de variance). Ces rsultats nous ont conduit
appliquer les tests non paramtriques de Wiilcoxon pour une comparaison de paires
95

Chapitre 3. Optimisation par colonie d'abeilles articielles et prdateur et proies


amlior
et ensuite le test de Friedman et ses alternatives pour une comparaison multiples. Les
rsultats des tests non-paramtriques ont conrm les performances de l'algorithme ABCPP en le classant devant tous les autres algorithmes compars.
tant donne que l'algorithme ABC-PP est meilleur que PMBBO, il va tre utilis
pour l'apprentissage d'un rseau de neurones RBF dans le but d'estimer les paramtres
du modle dans la commande quivalente pour une commande sliding mode.
Les travaux prsents dans ce chapitre ont t valids par une communication internationale ICSC13.

96

Chapitre 4
Apprentissage hors ligne des rseaux de
neurones RBF par l'algorithme
ABC-PP
1 Introduction
L'apprentissage d'un rseau de neurones est une tche d'optimisation dont le but est
de trouver un ensemble de poids qui minimise une erreur mesure. Gnralement, l'espace
de recherche est de grande dimension et, en fonction de la mesure d'erreur et les donnes
d'entre, il peut contenir de nombreux optima locaux. Certains algorithmes d'apprentissage traditionnels tel que la rtro-propagation, utilisent une recherche de gradient, et
peuvent se retrouver pigs dans des optima locaux. En revanche, les algorithmes volutionnaires n'utilisent aucune information de gradient, et sont probablement les mieux
placs pour viter d'tre pris au pige du fait de leur exploration simultane de plusieurs
rgions de l'espace de recherche (Cant-Paz and Kamath, 2005).
Une simple combinaison d'algorithmes volutionnaires et rseaux de neurones est d'utiliser l'algorithme volutionnaire pour la recherche des poids pour que le rseau fonctionne
comme souhait. L'architecture du rseau est xe par l'utilisateur avant l'exprience.
Dans cette approche, chaque individu de l'algorithme volutionnaire reprsente un vecteur avec tous les poids du rseau.
Dans (Caudell and Dolan, 1989), (Yeremia et al., 2013) et (Mahajan and Kaur, 2013),
les poids obtenus sont utiliss dans le rseau sans aucun ranement . Ceci est particulirement utile lorsque la fonction d'activation des neurones est non direntiable et les
algorithmes d'apprentissage traditionnelles ne peuvent pas tre utiliss. Une alternative
est d'utiliser la rtro-propagation ou d'autres mthodes pour aner les poids reprsents
dans chaque individu (Kitano, 1990), (Skinner and Broughton, 1995). La motivation de
cette approche est que les algorithmes volutionnaires identient rapidement les rgions
97

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
prometteuses de l'espace de recherche, mais ils ne peuvent pas aner trs rapidement
les paramtres. Ainsi, les algorithmes volutionnaires sont utiliss pour trouver un ensemble prometteur des poids initiaux partir duquel une mthode base de gradient
peut rapidement atteindre un optimum.
Ces approches sont simples et ont donn de bons rsultats, mais sourent de plusieurs
problmes. Tout d'abord, tant donn que des couches adjacentes dans le rseau sont
habituellement entirement connectes, le nombre total de poids est en O(n2 ), o n est
le nombre d'units ce qui conduit des individus plus longs et des populations plus
importantes, qui son tour va entraner des cots de calcul plus levs. Pour les petits
rseaux, les algorithmes volutionnaires peuvent tre utiliss pour rechercher des bons
poids ecacement, mais ces mthodes ne peuvent pas tre tendues vers des rseaux plus
larges (Cant-Paz and Kamath, 2005).
Un autre inconvnient est le problme des permutations (Radclie, 1990). Le problme
est que, en permutant les nuds cachs d'un rseau, la reprsentation des poids dans
l'individu changerait mais le rseau reste le mme. Pour s'y remdier, (Thierens et al.,
1991) proposent de placer le poids entrant et sortant d'un nud cach l'un ct de
l'autre. Une analyse ralise par (Hancock, 1992) suggre que le problme de permutation
n'est pas aussi dicile que cela est souvent prsent.
Dans ce chapitre, nous allons comparer l'algorithme propos dans le prcdent chapitre
(ABC-PP) avec quelques algorithmes volutionnaires pour l'apprentissage des rseaux de
neurones RBF. La comparaison est ralise travers une tude statistique rduite pour
choisir l'approche appliquer pour l'approximation des paramtres du modle dans la
commande sliding mode des systmes non linaires.
Des simulations sur le systme pendule invers seront prsentes dans la dernire
section en comparant les performances de l'algorithme ABC-PP et ceux de la rtropropagation de l'erreur pour l'apprentissage des rseaux de neurones RBF appliqus dans
la commande sliding mode.

2 Apprentissage des rseaux RBF par les algorithmes


volutionnaires
2.1 Classication des approches d'apprentissage
Les auteurs de (Miller et al., 1989) ont identi deux grandes approches pour utiliser les
algorithmes volutionnaires pour concevoir la topologie des rseaux neuronaux : utiliser un
encodage direct pour spcier chaque connexion du rseau ou une spcication indirecte
de la connectivit.
1) Encodage direct :
98

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
L'ide principale derrire l'encodage direct est que le rseau neuronal est considr comme
un graphe orient o chaque nud reprsente un neurone et chaque arc est une connexion.
Une mthode courante de reprsenter des graphes orients est avec une matrice de connectivit binaire : le (i, j)ime lment de la matrice est 1 s'il y a un arte entre les nuds i
et j , et zro autrement. Les algorithmes volutionnaires cods en binaire semblent bien
adapts pour l'encodage direct, car la matrice de connectivit peut tre reprsente simplement en concatnant ses lignes ou ses colonnes (Miller et al., 1989), (Belew et al., 1991).

2) Encodage indirect :
Aprs avoir opt pour une topologie et un algorithme d'apprentissage particulier pour un
rseau, l'algorithme volutionnaire est utilis pour trouver les valeurs des paramtres qui
compltent la spcication du rseau.
Par exemple, avec un rseau feedforward entirement connect, l'algorithme volutionnaire peut rechercher le nombre de couches et le nombre des units par couche. Un
autre exemple serait de coder les paramtres d'un algorithme d'apprentissage particulier,
comme le momentum et le taux d'apprentissage de la rtro-propagation (Marshall and
Harrison, 1991). Cependant, cette mthode est limite par le choix initial de la topologie
et de l'algorithme d'apprentissage.

2.2 Travaux antrieurs


Une version amliore des algorithmes gntiques est utilise dans (Leung et al., 2003)
pour l'ajustement de la structure et des paramtres d'un rseau de neurones. Un rseau
de neurones avec des commutateurs introduits dans les liens est propos pour prdire les
tches solaires. Tandis que (Mahajan and Kaur, 2013) a conu une mthode souple pour
rsoudre le problme du voyageur de commerce en utilisant les algorithmes gntiques
an de donner une approximation maximale du problme de la rduction des cots.
Une approche gntique a t utilise pour l'apprentissage des rseaux de neurones
fonctions de bases radiales dans (da Mota et al., 2012), l'algorithme est utilis pour
ajuster les poids entre la couche cache et la sortie pour classier des problme de quatre
bases de donnes connues avec une prcision entre 91 et 98%.
D'autres algorithmes volutionnaires ont t appliqus rcemment pour l'apprentissage
de rseaux de neurones, nous pouvons citer : Articial Bees Colony (ABC) (Nandy et al.,
2012) et (Karaboga et al., 2007), Particle swarm optimization (PSO) (Liu et al., 2004) et
(Qasem and Shamsuddin, 2009), Dierential Evolution (Si et al., 2012) et (Yu and He,
2006), Artitial Immune Algorithm (AIS)(Castro and von Zuben, 2001).

99

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP

3 Approximation des fonctions par les rseaux RBF


3.1 Approximation des fonctions

Soit y = f (x) une fonction avec x RD et y RD et soit Hi , i = 1 . . . N un ensemble


ni de fonctions de bases.
La fonction f peut tre crite sous la forme (4.1).
y = f (x) = f(x) + r(x)

(4.1)

o r(x) est le rsidus.


La fonction f (x) peut tre approxime par f(x) donne par la forme (4.2)
y ' f(x) =

N
X

wi hi (x)

(4.2)

i=1

L'objectif est de minimiser l'erreur en rglant les paramtres de wi de manire approprie.


Un choix possible pour l'erreur d'approximation est la norme L2 de la fonction rsiduelle
r(x) dnie comme :
Z
kr(x)kL2 2 =

r(x)2 dx

(4.3)

3.2 Approximation des fonctions par les rseaux RBF


La sortie d'un rseau RBF est donne par l'quation (4.4)
y = f(x) =

N
X

ai i (x, i , i )

(4.4)

i=1

En utilisant le rseau de l'quation (4.4), la fonction f (x) peut tre crite sous la forme :
y=

N
X

ai i (x, i , i ) + r(x) = y + r(x).

(4.5)

i=1

L'erreur peut tre minimise en ajustant de manire approprie, les poids ai , les centres
i et les largeurs i .
Lorsque la fonction f (x) est inconnue, et en disposant d'un ensemble de couples EntresSorties (xi , yi ) , i = 1..n, nous pouvons construire un rseau RBF et l'apprendre suivre
la fonction f (x).
L'apprentissage de ce rseau est un problme d'optimisation pour choisir les valeurs des

100

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
centres, poids et largeurs an de minimiser le critre (4.6) :
2

J (, , a) =

n
X

||yi yi ||2 .

(4.6)

i=1

4 Approche d'apprentissage des rseaux RBF par l'algorithme ABC-PP


L'apprentissage des rseaux de neurones fonctions de bases radiales avec N neurones
cachs peut tre considr comme un problme d'optimisation dont l'objectif est de rduire
l'erreur entre la sortie dsire de la fonction approximer et la sortie du rseau.
Un algorithme d'apprentissage pour ces rseaux doit dterminer l'architecture du rseau et ses paramtres savoir le vecteur des centres , celui des largeurs des fonctions
gaussiennes et le vecteur des poids des neurones a entre la couche cache et la couche de
sortie.
L'algorithme ABC-PP peut tre utilis pour l'apprentissage hors ligne du rseau RBF an
d'approximer une fonction en minimisant la fonction objectif J donne en quation (4.6).
Dans ce cas, une source de nourriture dans l'algorithme ABC-PP est constitue de
la concatnation des vecteurs des centres, des largeurs et des poids comme il est montr
dans l'quation (4.7).
sni = [
,
, a
].
(4.7)
La procdure d'apprentissage consiste suivre les tapes suivantes (Salem and Khel,
2014a) :
Collecte des donnes d'apprentissage.

Un ensemble d'entres choisi alatoirement est prsent la fonction et les sorties


correspondantes sont gnres. Cet ensemble est divis en base d'appretisage (60%),
base de validation (20%) et base de test (20%).
Choix du nombre de neurones.

Le nombre des neurones N dans la couche cache est dtermin empiriquement en


essayant dfrentes valeurs.
Choix des paramtres de l'algorithme d'apprentissage ABC-PP (nombre de sources

de nourriture et nombre de prdateurs ).


Initialisation des sources de nourritures initiales de faon alatoire.
Apprentissage et validation des rsultats.

Le principe consiste mesurer les performances pendant l'apprentissage sur une


base de validation qui est dirente de la base d'apprentissage. Lorsque le modle
n'est pas trop ajust aux donnes de l'apprentissage, les fonctions cots sur la base
101

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
de validation et d'apprentissage diminuent ensemble. Lorsque le modle commence
tre surajust, la fonction de cot sur la base d'apprentissage continue de diminuer,
alors que la fonction cot sur la base de validation augmente.
Sauvegarde de la matrice des paramtres du rseau de neurones.

Un schma gnral de la procdure d'apprentissage hors ligne des rseaux RBF par
l'algorithme ABC-PP pour l'approximation des fonctions est donn dans la Figure 4.1
x

Fonction

Rseau
RBF

[
,
, a
]

Figure

ABC-PP

4.1: Procdure d'apprentissage des rseaux RBF par l'algorithme ABC-PP

4.1 Analyse statistique de l'apprentissage des rseaux RBF par


les algorithmes volutionnaires
Pour tudier les performances de l'algorithme d'optimisation propos ABC-PP pour
l'apprentissage des rseaux RBF, il sera compar aux algorithmes : PMBBO, AG et ABC.
Les algorithmes compars seront appliqus pour l'apprentissage des rseaux RBF pour
l'approximation de 10 fonctions cites ci dessous (Digalakis and Margarits, 2000) :
 Sphere
F 1(x1 xD ) =

D
X

x2i

(4.8)

i=1

 Ackley
v
u
D
D
u1 X
1 X
t
2
F 2(x1 xD ) = 20exp(0.2
x ) exp(
cos(2xi )) + 20 + e (4.9)
D i=1 i
D i=1

 Ridge

D X
i
X
F 3(x1 xD ) =
(
xj )2
i=1 j=1

102

(4.10)

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
 Rosenbrock
F 4(x1 xD ) =

D1
X

100 (xi+1 x2i )2 + (xi 1)2

(4.11)

i=1

 Schwefel
F 5(x1 xD ) =

D
X

(xi sin(

p
|xi |)) + D,

= 418.982887

(4.12)

i=1

 Rastrigin
F 6(x1 xD ) = D 10 +

D
X

(x2i 10 cos(2xi ))

(4.13)

i=1

 Trid
F 7(x1 xD ) =

D
X

D
X
(xi 1)
(xi xi1 )
2

i=1

(4.14)

i=1

 Sum squared
F 8(x1 xD ) =

D
X

(4.15)

ix2i

i=1

 Power Sum
F 9(x1 xD ) =

D
X

"

D
X

i=1

 Griewangk
F 10(x1 xD ) =

n
Y

cos

(xji )

bj

(4.16)

i=1

i=1

#2

x
i
i

n
X
x2i
+
+1
4000
i=1

(4.17)

Pour eectuer la comparaison, chaque algorithme est excut 30 excutions indpendantes pour l'apprentissage d'un rseau RBF pour l'approximation de chaque problme
(D = 10). Le critre d'arrt est soit le nombre maximum des valuations de la fonction
objectif ou lorsque J  ou J est l'erreur d'apprentissage donne dans l'quation (4.6).
Les paramtres des algorithmes utiliss sont donns dans la Table 4.1 et Table 4.2.
Les erreurs moyennes d'apprentissage obtenues partir des 30 excutions sont illustres
dans la Table 4.3. Ces rsultats seront analyss avec les tests de Wilcoxon et estimation
du Contraste.

103

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
4.1: Paramtres des algorithmes PMBBO, ABC et ABCPP pour l'apprentissage
des rseaux RBF.
Table

PMBBO
ABC-PP et ABC
Paramtre
Valeur
Paramtre
ABC-PP
Nombre d'valuations
100D
Nombre d'valuations
100D
Nombre d'habitats N
100
Nombre d'abeilles N
100
E,I
1
Limit
/
/
/
Nombre de scout
/
Nombre de prdateurs npred
6
Nombre de prdateurs
6
Neurones cachs
20
Neurones cachs
20
1e 6

1e 6

ABC
100D

100
3
1
/
20
1e 6

4.2: Paramtres des algorithmes Gntiques pour l'apprentissage hors ligne des
rseau RBF

Table

Paramtre

Valeur

Chromosomes
100
Nombre des valuations
100D
Taux de croisement
0.6
Type de croisement
Deux points
Taux de Mutation
0.01
type de Mutation
bit ip
Neurones cachs
20
1e 6

Table

4.3: Valeurs moyennes du critre J pour les 10 fonctions


Fct
F1
F2
F3
F4
F5
F6
F7
F8
F9
F10

ABC-PP
ABC
PMBBO
AG
5.1230
6.8940
6.4120
8.0160
21.2510 22.9950 25.7850 24.0110
12.0201 18.1660 19.0550 38.1090
30.1580 30.9870 35.3290 36.5560
99.1250 101.2540 114.7710 120.3640
41.9000 41.5620 47.2280 43.0000
211.5440 249.7100 241.6500 243.2000
121.1000 121.1190 122.8900 124.4050
18.2800 19.2210 24.3060 24.6000
54.1130 60.3250 61.1040 62.0240
104

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP

4.1.1 Test de Wilcoxon signed ranks


Le test de Wilcoxon est ralis pour comparer les approches d'apprentissage des rseaux de neurones pour l'approximation des fonctions cites ci-dessus.
La Table 4.4 montre les valeurs des dirences positives R+ , ngatives R , et les valeurs
des p-values calcules pour toutes les paires en utilisant SPSS.
D'aprs la Table,
ABC-PP a un avantage signicatif sur les autres algorithmes (ABC, PMBBO et
AG) avec un niveau de signication = 0.01,
ABC est meilleur que les algorithmes gntiques avec = 0.05.
les hypothses  AG est meilleur que ABC  et  AG est meilleur que PMBBO 

sont rejetes.
Table

4.4: Rsultats du test Wilcoxon pour l'apprentissage des rseaux RBF


Pair

R+

p-value

ABC-PP vs ABC
ABC-PP vs. AG
ABC-PP vs. PMBBO
PMBBO vs. ABC
AG vs. PMBBO
ABC vs. AG

2
0
45
42
15
8

53
55
10
13
40
47

0.009
0.005
0.005
0.139
0.203
0.047

4.1.2 Estimation du Contraste


Le test Estimation du Contraste est utilis pour avoir une vue globale sur tous les
paires des algorithmes considrs. Les rsultats sont dtaills dans la Table 4.5.
Les rsultats obtenus de ce test viennent conrmer celles du test de Wilcoxon. Elles
mettent en vidence que l'algorithme ABC-PP est meilleur que les autres pour ce problme
( Valeurs ngatives par rapport aux autres algorithmes).
Nous ne pouvons pas statuer que ABC-PP est meilleurs que les autres en gnral mais en
se basant sur le thorme de "No free lunch" (Wolpert and Macready, 1997), nous pouvons
juste dire que ABC-PP a obtenu de meilleurs rsultats pour le problme de l'apprentissage
des rseaux RBF en particulier dans les conditions considres mais nous ne pouvons en
aucun cas gnraliser (Salem and Khel, 2014a).

105

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
Table

RBF

4.5: Rsultats du test d'estimation du contraste pour l'apprentissage des rseaux


ABC-PP

ABC

PMBBO

AG

0.000
1.869
4.861
6.088

-1.869

-3.898
-2.993

-5.767
-4.219
-1.227

ABC-PP
ABC
PMBBO
AG

0.000
2.993
4.219

0.000
1.227

0.000

5 Commande sliding mode par l'approche RBF-ABCPP


5.1 Architecture propose
L'approche propose d'apprentissage hors ligne des rseaux de neurones RBF par l'algorithme (ABC-PP) peut tre utilise pour l'identication des paramtres d'un systme
non-linaire pour les exploiter ensuite dans une commande sliding mode. En eet, l'identication des paramtres rels d'un modle est une sorte d'approximation de fonctions
o, en utilisant un ensemble exprimental de donnes Entre/Sortie, nous estimerons le
modle inconnu du systme rel.
Pour rsoudre le problme de dpendance du modle et l'obligation de connaitre les paramtres du systme non linaire dans la commande slidng mode (quation (1.31) page 32),
nous proposons d'utiliser un rseau de neurones RBF pour estimer les paramtres des deux
fonctions non linaires qui composent le systme f (x) et g(x). Le rseau RBF propos est
donn dans la Figure 4.2 (Salem and Khel, 2014a).
Le rseau propos a comme entre le vecteur d'tat x et deux sorties : f(x) et g(x).
La sortie du rseau est donne par l'quation (4.18)
f(x) = a1 T (x).
g(x) = a2 T (x).

(4.18)

o (x) est le vecteur des sorties des neurones cachs, a1 et a2 sont les vecteurs correspondants aux poids des deux sorties.
En remplaant les fonctions f (x) et g(x) dans l'quation (1.31) par les estimations f(x)
et g(x), la commande quivalente devient :
ue =

i
1 h
f (x) + xd x + x d
g(x)

(4.19)

Le schma bloc de la commande sliding mode base des rseaux RBF et l'algorithme
ABC-PP est donn par la Figure 4.3 (Salem and Khel, 2014a).
106

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
x1

a21 a11

x2

a12
a1N

a22

xN x

Figure

g(x)

a2N

4.2: Architecture de la commande quivalente par rseau RBF et ABC-PP.


RBF ABCPP

f(x), g(x)
yd (t)

f(x)

Commande ue (t)+ P
quivalente

e(t)

u(t)

x(t)

Systme

y(t)

s = e + e

Figure

Ksign(s)

uc (t)

4.3: Commande Sliding mode par les rseaux RBF et ABC-PP

5.2 Rsultats de simulation


L'approche propose d'apprentissage hors-ligne RBF-ABC-PP est utilise pour la commande sliding mode du pendule invers. Avant d'exploiter le rseau de neurones RBF dans
le processus de commande, nous avons commenc par apprendre le rseau par l'algorithme
ABC-PP et le comparer avec le trs connu, algorithme de rtro-propagation.

5.2.1 Apprentissage du rseau RBF


Le rseau RBF utilis pour estimer le modle du pendule invers a pour entre le
et la sortie est constitue des deux fonctions f(, )
et g(, )
. Les
vecteur d'tat [, ]
donnes collectes de la base d'apprentissage sont prsentes dans la Figure 4.4.
Le nombre des neurones N dans la couche cache du rseau est dtermin empiriquement. Nous avons obtenu les valeurs N = 16 pour l'algorithme ABC-PP et N = 16 pour
la rtro-propagation.
L'apprentissage du rseau est ralis hors-ligne en utilisant 60% de la base et 20%
pour la validation avec les paramtres donns dans la Table 4.6.
L'apprentissage du rseau est eectu sparment par les deux algorithmes ABC-PP et
rtro-propagation sur le mme ensemble des donnes jusqu' atteindre le critre d'arrt qui
est soit un nombre d'itrations/ cycles ou quand l'erreur quadratique de l'apprentissage
J descend au dessous d'un seuil .
107

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
L'volution de J est reprsente dans la Figure 4.5 o nous pouvons remarquer que
l'algorithme de rtro-propagation tarde jusqu' l'itration 200 pour descendre au dessous
de 1 et atteindre des valeurs plus au moins acceptables. Dans le mme temps, ABC-PP a
atteint les mmes valeurs aprs le 10ieme cycle.
L'erreur obtenue avec l'algorithme ABC-PP est 1e 06 et celle de la rtro-propagation
est gale 2e 04.
Nous remarquons aussi que l'algorithme de rtro-propagation tombe souvent dans des
minima locaux o l'erreur quadratique n'volue pas pendant plusieurs poques (jusqu' 20
itrations sans changement) alors que ABC-PP volue rapidement vers la valeur minimale.
Ceci est d la diversication apporte par le modle prdateur et proie amlior qui
permet d'explorer d'autres zones de l'espace de recherche.

Angle(Rad)

1
0

50

100

150

200

250

300

350

400

450

500

Echantillons
Figure

Table

4.4: Base d'apprentissage

4.6: Paramtres des algorithmes ABC-PP et rtro-propagation

ABC-PP
Rtro-propagation
Paramtre
Valeur
Paramtre
Valeur
Nombre de cycles (cmax )
500
Nombre d'itrations
500
Nombre d'abeilles N
200
Taux d'apprentissage
0.6
Nombre de prdateurs
5
Momentum
0.9
Neurones cachs
16
Neurones cachs
16

Entres
,
Entres
,
et g(, )

et g(, )

Sorties
f (, )
Sorties
f (, )


1e 6

108

1e 6

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
Erreur d'apprentissage

12

Rtropropagation
ABC-PP

10
8
6
4
2
0
0

50

100

150

200

250

300

350

400

450

500

Itrations/ Cycles
Figure

4.5: volution de l'erreur d'apprentissage pour ABC-PP et rtro-propagation

5.2.2 Application la commande sliding mode


Les deux rseaux obtenus par apprentissage par la rtro-propagation et ABC-PP sont
utiliss chacun son tour pour estimer les paramtres du pendule invers an de les
injecter dans une loi de commande sliding mode.
Le pendule invers est contrl pour ramener la tige suivre une trajectoire sinusodale
en utilisant le rseau RBF dans la boucle de la commande sliding mode pour gnrer la
partie quivalente de la commande, nous avons obtenu les rsultats de la Figure 4.6 o
la position dsire et les positions relles (ABC-PP et rtro-propagation) de la tige du
pendule sont prsentes. Les erreurs de poursuite de l'angle sont dans la Figure 4.7.
D'aprs ces Figures, le rseau obtenu par l'algorithme ABC-PP ramne le pendule
invers suivre la trajectoire aprs un temps de 0.5s avec une erreur au voisinage de zro
(cf. Figure 4.7). Dans la mme gure, l'algorithme de rtro-propagation n'a pas obtenu
les mmes performances d'apprentissage d'o la dirence remarque entre la trajectoire
dsire et relle (0.05Rad).
Ces dirences de performances sont justies par les rsultats de l'apprentissage des
deux rseaux RBF. Les erreurs d'estimation pour les fonctions f et g pendant la commande
sont montres dans les Figures 4.8 et 4.9.
Il est trs clair que le rseau RBF avec ABC-PP a donn une meilleure estimation
des deux composantes du modle du pendule que le rseau avec rtro-propagation. Cette
supriorit du rseau ABC-PP-RBF justie bien les rsultats de l'erreur de poursuite de
la Figure 4.7. Le signal de la commande sliding mode en utilisant l'algorithme ABC-PP
ne prsente pas de chattering comme il est illustr dans la Figure 4.10.

109

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP

Angle (Rad)

0.2

Angle dsir
Angle , ABC-PP
Angle , Rtro-propagation

0.1
0
0.1
0

10

Temps(s)

Erreur angulaire(Rad)

Figure

4.6: Positions angulaires dsire et relles (ABC-PP et rtro-propagation)

ABC-PP
Retropropagation

0.15
0.1
5 102
0
0

10

Temps(s)

Erreur d'estimation f(x)

Figure

4.7: Erreurs Angulaires e(t) (ABC-PP et rtro-propagation )

Rtro-propagation
ABC-PP

1
0
1
0

Temps(s)
Figure

4.8: Erreur de f (x) pendant la commande sliding mode(ABC-PP et


rtro-propagation)

110

10

Erreur d'estimation g(x)

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP

Rtropropagation
ABC-PP

0.5

10

Temps(s)

Signal de commande

Figure

4.9: Erreur de g(x) pendant la commande sliding mode (ABC-PP et


rtro-propagation)

1
0

10

Temps(s)
Figure

4.10: Signal de commande sliding mode (ABC-PP-RBF)

5.2.3 Test de robustesse


Le problme des rseaux dont l'apprentissage est ralis hors ligne est qu'ils ne peuvent
pas approximer avec exactitude les donnes entaches de bruit. la solution est donc de
refaire l'apprentissage.
Pour tester la robustesse du rseau RBF avec ABC-PP, nous avons inject un bruit blanc
dans la sortie du systme (cf. Figure 4.11).
Le rseau n'arrive pas ragir face ce bruit d'o l'accroissement de l'erreur d'estimation pour les fonctions f et g comme le montrent les Figure 4.12 et 4.13.
L'utilisation de tel bruit et la dtrioration des performances d'approximation du
rseau conduisent forcement une erreur de poursuite moins bonne que l'antrieur comme
111

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
il est montr dans la Figure 4.14 et l'apparition du phnomne du chattering (Oscillations
sur la courbe du signal de commande) dans la Figure 4.15 est la consquence de la mauvaise
estimation du rseau RBF.
102

Bruit

0.5
0
0.5
0

10

10

Temps(s)

Erreur estimation f(x)

Figure

4.11: Bruit blanc

1
0

Temps(s)
Figure

4.12: Erreur d'estimation de la fonction f(x) avec bruit

112

Erreur Estimation g(x)

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
1.1

1.05

10

Temps(s)
Figure

102

Erreur angulaire(rad)

4.13: Erreur d'estimation de la fonction g(x) avec bruit

4
2
0
0

10

Temps(s)

Signal de commande

Figure

4.14: Erreur angulaire de la commande sliding mode (ABC-PP-RBF) avec bruit

1
0

Temps(s)
Figure

4.15: Sortie du contrleur sliding mode (ABC-PP-RBF) avec bruit


113

10

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP

6 Analyse, critiques et motivations pour le chapitre suivant


L'objectif de l'apprentissage d'un rseau de neurones RBF est de trouver une combinaison de paramtres (poids, largeurs et centres) an d'approximer un comportement
souhait. Ceci peut tre vu comme un problme d'optimisation o une solution candidate
est constitue de la concatnation des paramtres d'un rseau, la fonction objectif est une
fonction de l'erreur entre le comportement rel du rseau et le comportement dsir.
Dans ce chapitre, nous avons appliqu l'algorithme ABC-PP qui est une hybridation
de l'algorithme colonie d'abeilles articielles (ABC) pour l'apprentissage des rseaux de
neurones RBF. L'algorithme a t d'abord valid par une comparaison avec d'autres algorithmes de la mme famille en les utilisant dans l'apprentissage des rseaux de neurones
RBF pour l'approximation des fonctions. Les rsultats obtenus taient prometteurs o
notre algorithme s'avrait le mieux plac.
Sur la base de ces rsultats, nous avons appliqu l'algorithme pour l'apprentissage
d'un rseau de neurones RBF pour estimer les paramtres des fonctions plus complexes :
le modle d'un systme non linaire.
Cette application vient rsoudre une des limites les plus pnalisantes de la commande
sliding mode des systmes non linaires, savoir, la dpendance du modle et la ncessit
de connaitre ses paramtres l'avance (cf. 6.2.3, page 32).
Nous avons commenc par collecter les donnes entres/sorties du systme non linaire
(pendule invers) pour les utiliser dans l'apprentissage du rseau RBF, la sortie de ce
rseau serais une estimation des fonctions du modle dynamique du systme.
Aprs avoir trouv la bonne combinaison des paramtres du rseau RBF par l'algorithme ABC-PP, nous avons inject ce rseau dans la boucle de la commande sliding mode
pour calculer la commande quivalente.
Les rsultats obtenus dans un environnement idal ont t acceptables, mais l'application des algorithmes d'optimisation pour l'apprentissage des rseaux de neurones RBF
pour l'estimation des paramtres des systmes non linaires peut rencontrer les limites
suivantes :
L'apprentissage des rseaux de neurones RBF par tels algorithmes ncessite la dis-

ponibilit de toute la base des donnes de l'apprentissage, ce qui ne peut pas tre
le cas quand le systme n'est pas disponible pour collecter les donnes comme les
machines industrielles dj en fonctionnement.
Le fait que le nombre des neurones doit tre dtermin par ttonnement, constitue un

handicap pour l'algorithme d'apprentissage propos puisque ce processus empirique


combin l'aspect stochastique de l'algorithme ABC-PP diminue les chances de
trouver un ensemble optimal de paramtres pour le rseau.
114

Chapitre 4. Apprentissage hors ligne des rseaux de neurones RBF par l'algorithme
ABC-PP
Les systmes non linaires sont gnralement sujets des incertitudes paramtriques

o l'environnement altre les paramtres du systme par la chaleur, frottement et


autres.
Ces incertitudes aectent le systme conduisant le rseau appris partir de ces
donnes, fournir une sortie divergente par rapport la sortie relle du systme.
L'environnement de fonctionnement des systmes non linaires n'est pas toujours

idal, l'existence de phnomnes naturelles tel que les vents et les frottements gnre
des bruits inuant ainsi sur la robustesse du contrleur sliding mode, celui-ci, et en
essayant de compenser ces bruits et incertitudes va utiliser de grands gains ce qui
conduit l'apparition du phnomne de chattering (Voir les rsultats du test de
robustesse de ce chapitre).
Ces limites nous ramnent conclure que l'algorithme ABC-PP en particulier, n'est pas
appropri pour l'apprentissage des rseaux de neurones utiliss pour l'approximation des
systmes non linaires rels, non pas parce qu'il est moins performant mais les circonstances d'utilisation de tels rseaux le rendent inappropri et dprcient ses performances.
Cette conclusion nous oblige parier sur un autre type d'algorithmes d'apprentissage,
savoir l'apprentissage enligne an de ragir en temps rel aux changement qui caractrisent
les systmes non linaires.
L'application de l'algorithme ABC-PP a t le sujet d'une communication internationale WCCS14.
c
)
snpredi = snbi + (1 cmax
snic+1 = snic + e|dm | (snimax snimin )

115

Chapitre 5
Apprentissage en ligne des rseaux de
neurones RBF par l'approche
GAP-EKF
1 Introduction
Plusieurs techniques ont t dveloppes pour l'apprentissage des rseaux RBF. Nanmoins, ces approches sourent d'un problme pnalisant o il faut avoir la totalit de la
base d'apprentissage, qui est chose dicile voir impossible dans la ralit.
Avec cette contrainte, le rseau de neurones obtenu ne pourra pas ragir aux changements ds une variation du comportement du systme ou un bruit de mesure. Dans ce
cas, nous serons alors obligs de rapprendre de nouveau le rseau de neurones.
L'apprentissage en ligne apparait comme une bonne alternative pour combler ces insusances. L'ide dans ce type d'algorithmes est de modier les paramtres du rseau
RBF fur et mesure que des couples entres-sorties sont reus (Haykin, 1999). Parmi
les algorithme d'apprentissage en ligne les plus utiliss nous trouverons l'approche RAN
(Resource Allocation Network) et son extension RANEKF (RAN extended Kalman Filter)
propose par (Kadirkamanathan and Niranjan, 1993) o un ltre de Kalman est utilis
pour ajuster les paramtres des neurones.
MRAN, l'amlioration de l'algorithme RAN, permet de combiner les critres de croissance RAN avec une stratgie d'lagage pour obtenir une structure minimale du rseau,
mais cet algorithme a une grande complexit de calcul (Li et al., 2000).
Dans ce chapitre, nous prsenterons un nouvel algorithme d'apprentissage squentiel
(online) bas sur la modication des paramtres du rseau par un ltre de Kalman tendu
chaque prsentation de nouveaux couples de donnes Entres/Sorties. une autre caractristique de cet algorithme est qu'il utilise une approche Growing and Pruning (GAP)
pour calculer le nombre de neurones ncessaires pour chaque couple de donnes (Salah116

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
shoor and Jafari, 2007). En eet, le rseau commence avec zro neurones et fur et
mesures que les donnes sont prsentes, le nombre de neurones s'accroit ou diminue selon
la complexit et le besoin.
La particularit de l'algorithme GAP-EKF est que les calculs sont faites par rapport
au neurone le plus proche contrairement aux algorithmes MRAN et RAN o la totalit
des neurone sont concerns.
L'algorithme GAP-EKF est utilis pour l'apprentissage enligne d'un o plusieurs rseaux de neurones RBF destins l'approximation des paramtres du systme non linaire
pendule invers an de palier aux problmes de la commande sliding mode savoir la dpendance du modle et la connaissance priori de ses paramtres.
Pour amliorer les performances de la commande sliding mode, nous avons utilis un
contrleur ou pour calculer le gain K de la partie corrective et ainsi liminer l'autre
limitation de la commande, le phnomne de chattering.

2 Approche GAP-EKF pour l'apprentissage des rseaux


de neurones RBF
L'approche GAP-EKF propose par (Huang et al., 2004) est une approche destine
l'apprentissage en ligne des rseaux RBF, o des chantillons d'apprentissage (xi , yi )
,i = 1, 2, . . . , m, sont prsents un par un l'entre du rseau RBF de N neurones cachs.
xi est un vecteur d'entres de taille Nx et le vecteur de sortie yi est de taille Ny . La sortie
du rseau pour l'entre xi est donne par l'quation (5.1) :
yi =

N
X



akj exp kxi j k2 /2j2 + ako .

(5.1)

j=1

Les paramtres du rseau (poids, centres et largeurs des fonctions gaussiennes) sont dnis
par le vecteur w :


w = [
a,
,
] = a1 . . . aN Ny ; 1 ...N Nx ; 1 ...N

(5.2)

GAP-EKF est une approche base sur l'allocation des ressources o le nombre des neurones cachs N est gal 0 au dbut et au besoin, ce nombre est incrment ou dcrment.
Le processus d'apprentissage de GAP-EKF implique l'attribution de nouveaux neurones cachs ainsi que l'adaptation des paramtres du rseau par un ltre de Kalman
tendu (EKF).
Le droulement de l'algorithme est rsum dans la Figure 5.1 (Huang et al., 2005).

117

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF

2.1 Inuence d'un neurone


La sortie du rseau est calcule partir de la sommation des sorties des neurones de
la couche cache. Ces neurones ne participent pas au mme degrs dans le rsultat. L'ide
est d'allger le rseau en supprimant le neurone dont la participation est insigniante.
Pour cela, une nouvelle mesure de l'importance des neurones est introduite, l'inuence
du neurone k peut tre quantie comme suit (Salem and Khel, 2014d) :






1.8 N x a

k
k
Infk = N
.
P

(1.8j )N x
j=1

(5.3)

2.2 Critre de croissance (Growing Criterion)


Le rseau RBF commence seulement avec le biais et sans neurones cachs. Comme
les observations sont reues au cours de l'application, certaines d'elles peuvent ncessiter
l'ajout d'un nouveau neurone (Growing). La dcision d'ajouter un neurone cach pour
approximer une observation (xi , yi ) est prise si le critre des quations (5.4) et (5.5) est
satisfait (Rong et al., 2006) :
kxi ir k > g1 .
(5.4)
kei k

(1.8 kxi ir k)N x


> g2 .
NP
+1
Nx
(1.8j )

(5.5)

j=1

o ei est l'erreur entre la sortie du rseau yi et la sortie dsire yi . Elle est dnit par
l'quation (5.6) :
ei = yi yi .
(5.6)
Le vecteur ir contient les centres du neurone le plus proche de l'entre courante xi . g1 , g2
sont des seuils dnir pour chaque problme.
L'quation (5.4) vrie si l'entre courante xi est assez loin de tous les centres des neurones existants de telle faon qu'ils ne peuvent pas ragir cette entre tandis que l'quation (5.5) vrie si le nouveau neurone ajouter N + 1 soit susamment inuent pour
tre ajout.
Les paramtres du nouveau neurone sont dcrits dans l'quation (5.7) (Huang et al.,
2005) de telle sorte que les centres du nouveau neurone correspondent l'entre xi et les
poids reliant le neurone ajout aux sorties sont donnes par le vecteur ei .

aN +1 = ei
N +1 = xi

N +1 = kxi ir k

118

(5.7)

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
o est un facteur qui dtermine le degr de chevauchement des neurones cachs dans
l'espace d'entre (Huang et al., 2005).
Quand une observation (xi ; yi ) ne vrie pas les critres de l'ajout, aucun neurone cach
n'est ajout, et les paramtres ai , i et i du rseau sont ajusts en utilisant l'algorithme
EKF.
Initialiser les paramtres du GAP-EKF N = 0
Entrer (xi , yi )
Calculer yi
Calculer l'inuence Infk

Critre d'ajout ?

Oui

Non
Ajuster les paramtres du neurone le
plus proche par EKF

Calculer les paramtres


du nouveau neurone
N N +1

Recalculer yi
Non

Oui

Critre de suppression ?
Oui

Autres donnes ?

Supprimer neurone
N N 1

Non
Fin
Figure

5.1: Organigramme de l'algorithme GAP-EKF.

119

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF

2.3 Ajustement des paramtres du rseau par l'algorithme EKF


Si les critres dans l'quation (5.4) et quation (5.5) ne sont pas vris, l'algorithme
GAP-EKF procde la modication des paramtres du neurone le plus proche wir de
l'entre actuelle xi par un ltre de Kalman tendu (EKF) (Li et al., 2000) :
(5.8)

r
wir = wi1
+ Ki e i .

Le vecteur wir contient les poids, centres et la largeur du neurone le plus proche comme
le montre l'quation (5.9). (Huang et al., 2005) :
(5.9)

wr = [ar , r , r ] .
Ki est la matrice des gains de Kalman calcule pour chaque entre/ sortie :
Ki = Pi1 Bi [Ri + BiT Pi1 Bi ]1 .

(5.10)

Bi = w y est la matrice du gradient pour la fonction reliant les entres aux sorties y. Ri
est la variance du bruit des mesures. Pi est la matrice de covariance de l'erreur dnit

dans l'quation (5.11) (Huang et al., 2005) :


Pi = [Izz Ki BiT Bi ]Pi1 + q0 Izz .

(5.11)

q0 est un scalaire pour dterminer le pas dans la direction de la matrice du gradient. Si le


nombre des paramtres ajuster est z alors Pi est une matrice symtrique dnie positive
de dimension z z .
Quand un nouveau neurone est ajout, la matrice Pi est modie par l'quation (5.12)

(Huang et al., 2005) :


Pi =

Pi1
0
0 q0 Igg

!
.

(5.12)

I est la matrice d'identit.

les nouvelles lignes et colonnes sont initialises par q0 (une estimation initiale de l'incertitude). g = Nx + Ny + 1 est le nombre des paramtres introduits avec le nouveau
neurone (Salem and Khel, 2014d).

2.4 Critre d'lagage (Pruning Criterion)


A chaque prsentation de couple de donnes, l'algorithme procde l'lagage du rseau.
Si l'inuence du neurone k donne par l'quation (5.13) est infrieure au seuil d'lagage
p , ce neurone est insigniant et va tre supprim et le nombre des neurones du rseau

120

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
devient N 1 (Zhang, 2005).
kaj k

(1.8j )N x
< p .
N
P
Nx
(1.8j )

(5.13)

j=1

3 Approche GAP-EKF-Floue pour la commande sliding mode des systmes non linaires
Dans cette section, une architecture fonde sur l'intelligence computationelle est propose pour la commande sliding mode des systmes non linaires. Cette architecture est
base sur l'utilisation des rseaux de neurones RBF (avec apprentissage en ligne par
GAP-EKF) dans l'approximation des paramtres du systme command dans la commande quivalente et de rduire l'eet du chattering en calculant le gain K fur et
mesure pour la commande corrective en utilisant un contrleur ou (Salem and Khel,
2014d).
Le schma global de cette approche est donn dans la Figure 5.2
RBF
GAP-EKF

f(x), g(x)
yd (t)

Commande ue (t)+ P
quivalente

e(t)

u(t)

x(t)

Systme

y(t)

s = e + e

Figure

s
s

uc (t)

5.2: Approche GAP-EKF-Floue dans la commande sliding mode.

3.1 Commande quivalente RBF-GAP-EKF


Les systmes non linaires sont souvent sujets aux variations des paramtres et incertitudes dans leur modle ce qui inue sur les performances de la commande sliding mode
(Salem and Khel, 2014d).
Un rseau de neurone RBF est utilis pour remdier ce problme en estimant en ligne
les paramtres du modle et ragir en temps rel aux changements ds l'environnement
(frottement, bruit, ...).
Le rseau propos a comme entre le vecteur d'tat x et deux sorties, les deux fonctions
non linaires du systme : f(x) et g(x).

121

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
La sortie du rseau est donne par l'quation (5.14)
f(x) = a1 T (x)
g(x) = a2 T (x).

(5.14)

o (x) est le vecteur des sorties des neurones cachs, a1 et a2 sont les vecteurs correspondants aux deux sorties (Salem and Khel, 2014d).
La commande quivalente de l'quation (1.31) devient :
ue (t) =

i
1 h
f (x) + xd x + x d
g(x)

(5.15)

L'apprentissage par l'algorithme GAP-EKF et l'exploitation du rseau RBF sont est ralis en ligne pendant la commande du systme non linaire (Salem and Khel, 2011).

3.2 Commande Corrective oue


Le rle de la partie corrective de la commande sliding mode est de garder le systme
sur la surface de glissement s en utilisant un gain K , cette commande est donne par
l'quation (5.16) (Salem and Khel, 2014d).
uc (t) = Ksign(s)

(5.16)

Pour garder le systme sur la surface, il faut choisir des valeurs de K susamment grandes
mais dans le mme temps, ces grandes valeurs causeront des oscillations hautes frquences sur les deux cots de la surface de glissement. Ce phnomne de chattering peut
endommager le systme.
Au lieu de xer une valeur constante pour K au dbut de la procdure de commande, nous
proposons d'utiliser un contrleur ou pour calculer ce gain. L'avantage de l'utilisation
d'un contrleur ou est que le gain commence avec une valeur leve lorsque le systme
est loin de la surface, cette valeur s'adaptera en fonction de la distance entre le systme
et la surface (Salem and Khel, 2014d).

3.2.1 Entres du contrleur ou


Les variables d'entre du contrleur sont la surface s et sa drive s .
Les variables linguistiques de l'entre s sont (Salem and Khel, 2014d) :
 NS : Negative Small
 ZE : Zero
 PS : Positive Small
122

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
Les variables linguistiques de l'entre s sont (Salem and Khel, 2014d) :
 N : Negative
 Z : Zero
 P : Positive

Degrs d'appartenance

Les fonctions d'appartenance des variables d'entre s et s sont reprsentes dans la Figure 5.3 et la Figure 5.4.
NS

1
0.8
0.6
0.4
0.2
0
1

0.8
Figure

Degrs d'appartenance

PS

ZE

0.6

0.4

0.2

0.2

0.4

0.6

0.8

5.3: Fonctions d'appartenance de la variable d'entre s

1 N

0.8
0.6
0.4
0.2
0
5

Figure

0
s

5.4: Fonctions d'appartenance de la variable d'entre s

3.2.2 Sortie du contrleur ou


Le contrleur ou est de type Mamdani avec une seule sortie, le gain K . Ses variables
linguistiques sont :
 KS : K Small
 KM : K Moyen
123

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
 KB : K Big

Degrs d'appartenance

La fonction d'appartenance de K est reprsente dans la Figure 5.5.


KM

1 KS

KB

0.8
0.6
0.4
0.2
0
0

0.5

1.5

2.5

3.5

4.5

K
Figure

5.5: Fonctions d'appartenance de la variable de sortie K

3.2.3 Systme d'infrence


Les rgles utilises pour le calcul du gain sont reprsentes dans la Table 5.1 et une
reprsentation graphique des surfaces occupes est illustre dans la Figure 5.6 (Salem and
Khel, 2014d).
Table

5.1: Rgles du contrleur ou

@
@

N
Z
P

@
@

NS ZE PS
KM KM KS
KM KS KM
KB KM KB

124

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF

4
2

s
Figure

4
4.1

0
0.40.2
1 0.80.6

0.8 1
0.2 0.4 0.6

5.6: Surface de la sortie du contrleur ou K

Rsultats des simulations


Application au pendule invers

L'approche propose a t utilise pour la commande sliding mode du pendule invers


simple donn en Annexe, Section 2.
La commande sliding mode pour un pendule invers est donne par l'quation (5.17) (Salem and Khel, 2014d).
ue =

i
1 h
f (, ) + d + d Ksign(s).

g(, )

(5.17)

L'objectif est de poursuivre la trajectoire sinusodale donne en quation (5.18) (Salem


and Khel, 2014d).

d = 0.2sin( t)
(5.18)
2

d et d sont les vitesses et acclrations dsires. L'quation (5.19) reprsente les per-

turbations externes additionnes au systme pour tester la robustesse de la commande


utilise. Nous avons aussi simuler une variation de la masse du pendule en ajoutant une
quantit m = 0.01Kg au milieu de chaque seconde (Salem and Khel, 2014d).
d(t) = 103 sin(t)

(5.19)

Un rseau RBF avec un apprentissage GAP-EKF a t utilis pour calculer les fonctions
et g(, )
, les estimations des fonctions f (, )
et g(, )
. Dans le mme temps, le
f(, )
gain K est calcul par un contrleur ou.
La commande du pendule se droule pendant 10s et chaque pas d'chantillonnage
du simulateur, l'erreur entre la sortie dsire et relle est calcule.
Pour viter des calculs inutiles, l'algorithme GAP-EKF n'est excut que si cette erreur
125

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
dpasse un seuil acceptable x l'avance 1 = 0.001 (Salem and Khel, 2014d).
Les paramtres de la commande sliding mode par l'approche GAP-RBF-Floue sont
prsents dans la Table 5.2 (Salem and Khel, 2014d).
Table

5.2: Paramtres de l'algorithme d'apprentissage GAP-EKF


Paramtrer
Valeur
Entres
,
et g(, )

Sorties
f(, )
Seuil d'ajout g1
1.0e 5
Seuil d'ajout g2
1.0e 5
Facteur de chevauchement
15
Seuil de suppression p
1.0e 5
q0

1.5

L'allure de la trajectoire dsire ainsi que la position relle du pendule sont montres
dans la Figure 5.7 et l'erreur de poursuite est dans la Figure 5.8.
L'erreur obtenue est trs acceptable et le pendule converge rapidement vers la trajectoire
dsire avec un temps de rponse infrieur 0.2s malgr l'existence d'un bruit externe et
une altration des paramtres du modle.
Ces rsultats sont obtenus cause de la puissance de l'algorithme d'apprentissage en ligne
et g(, )
avec une erreur l'ordre de
GAP-EKF d'o l'estimation des fonctions f (, )
1e 03 et 1e 06 respectivement (cf. Figure 5.9 et Figure 5.10).
Les pics remarqus chaque deux secondes sur les deux gures montrent l'adaptation
de l'algorithme au changements introduits.
L'volution du nombre des neurones du rseau RBF durant la procdure de la commande est illustre dans la Figure 5.11. Dans la gure, l'algorithme commence avec zro
neurones. L'algorithme a ajout un nouveau neurone 0.2s et un autre 0.4s. Aprs le
pas suivant, le critre d'lagage est vri et le neurone le moins signiant est supprim.
Les entres suivantes ont ncessit l'ajout d'un nouveau neurone et le rseau continue
de fonctionner avec 2 neurones seulement en modiant les paramtres avec le ltre de
Kalman jusqu' 3.4s o le critre d'ajout a t vri et un autre neurone a t ajout.
A la n du procdure de la commande, le rseau a 13 neurones.
Le signal de commande agissant sur le chariot est reprsent dans la Figure 5.12. Nous
pouvons remarquer clairement l'absence des oscillations hautes frquences (Chattering)
contrairement aux rsultats du chapitre 4. Ceci est d au contrleur ou dont la sortie est
reprsente sur la Figure 5.13. Le gain commence avec une valeur de K = 5 et diminue
au cours de la procdure de commande pour suivre une forme sinusodale pour satisfaire
la trajectoire dsire.
126

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF

0.4
Position dsire

Position angulaire (Rad)

0.3

Position relle

0.2
0.1
0
0.1
0.2
0.3
0

Erreur angulaire (Rad)

Figure

5
Temps(s)

10

5.7: Positions dsire et relle du pendule invers par GAP-EKF-Floue

0.1

5 102

0
0

10

Temps(s)
Figure

103

Erreur d'estimation f(x)

5.8: Erreur de poursuite de la position angulaire par GAP-EKF-Floue

0
1
2
0

Temps(s)
Figure

par GAP-EKF-Floue
5.9: Erreur d'estimation de la fonction f (, )

127

10

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
106

Erreur d'estimation de g(x)

2
0
2
4
6
8

10

Temps(s)

Nombre de neurones

Figure

par GAP-EKF-Floue
5.10: Erreur d'estimation de la fonction g(, )

10

10

Temps(s)
Figure

5.11: volution du nombre des neurones du rseau RBF

Signaal de commande

20
0
20
40
60

Temps(s)
Figure

5.12: Signal de commande pour le pendule invers par GAP-EKF-Floue


128

10

valeur du gain ou K

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
4
3
2
1
0
0

10

Temps(s)
Figure

4.2

5.13: Valeurs du gains K, pendule invers avec GAP-EKF-Floue

Application au robot manipulateur SCARA

Une deuxime application de l'approche propose GAP-EKF-Floue est dans la commande d'un robot manipulateur SCARA de trois degrs de libert dont le modle est
donn en quation (5.20) (Ak and Cansever, 2006b) :
M (q)
q + C(q, q)
q + G(q) + F (q)
= .

(5.20)

o M (q), C(q, q)
sont les matrices d'inertie et des Forces de Coriolis et Centrifuges respectivement. G(q) est le vecteur de gravit , F (q)
est le vecteur des frottement et est le
vecteur des couples agissants sur les articulations. q , q et q sont les vecteurs des positions,
vitesses et acclrations angulaires. Les valeurs de ces matrices pour le robot SCARA sont
prsents en Annexe.
La commande sliding mode d'un robot manipulateur est donne par l'quation (5.21)
(Slotine and Li, 1991) :
= eq + cc .
(5.21)
o la commande quivalente eq est donne par :
(q)
q)

eq = M
qr + C(q,
qr + G(q)
+ F (q).

(5.22)

qr = qd e,
qr = qd e.

(5.23)

o :
avec qd , la trajectoire suivre est reprsente dans l'quation (5.24) :
qd = 1 + sin(t).

129

(5.24)

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
et la surface de glissement est dnit par l'quation (5.25) :
s = e + e.

(5.25)

cc = Ksign(s).

(5.26)

La partie corrective est sous la forme :

, C,
G,
F sont des estimations de M, C, G et F respectivement (Slotine and Li, 1991).
M
K = diag [K1 , K2 . . . Kn ] est une matrice diagonale dnie positive.

Nous avons appliqu l'approche GAP-RBF-Floue pour la commande sliding mode du robot manipulateur donn en quation (5.20), pour cela, nous avons utilis un rseau RBF
pour estimer la matrice M , un autre pour estimer la matrice C et un troisime pour le
vecteur de frottement F . Les paramtres du vecteur de gravit G sont constantes (cf.
quation (A.8).
Pour tester la robustesse de la commande, le frottement de l'quation (A.10) a t
considr ainsi qu'une incertitude dans la masse de la deuxime articulation m2 avec
m2 = 0.001Kg .
Les paramtres de la commande sliding mode GAP-RBF-Floue sont prsents dans la
Table 5.3.
Les erreurs d'estimation des trois matrices sont illustres dans la Figure 5.14, Figure 5.15 et Figure 5.16 tandis que Figure 5.17 et Figure 5.18 reprsentent les positions
des articulations et les erreurs de poursuite respectivement.
Les trois rseaux RBF ont approxim les trois composantes du modle dynamique avec
exactitude produisant une erreur d'estimation infrieure 1e 6 et il est clair que les
articulations convergent vers la trajectoire dsire avec une erreur statique presque nulle
malgr les perturbations externes et les incertitudes dans le modle.
Les couples agissants sur les trois articulations sont reprsents dans la Figure 5.19 et la
sortie du contrleur ou est dans la Figure 5.20. Le phnomne du chattering est compltement limin comme le montre la Figure 5.19 cause de la bonne estimation du modle
et l'inuence du contrleur ou qui calcule chaque instant le gain adquat.
Pour montrer l'ecacit de l'algorithme d'apprentissage, nous avons rsum les moyennes
des erreurs d'apprentissage pour les trois rseaux et ceci chaque deux secondes. Les rsultats sont prsents dans la Table 5.4.
Nous pouvons remarquer que les 3 rseaux vont apprendre le modle fur et mesure
que le temps d'utilisation des rseaux passe. En eet, pour chaque donne en plus, l'architecture des rseaux s'amliore et leurs performances augmentent.
130

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
5.3: Paramtres de l'algorithme d'apprentissage GAP-EKF pour les 3 rseaux
RBFM, RBFC et RBFF
Table

Paramtre
RBFM RBFC
RBFF
Entres
q
q, q
q
Nombre des entres
3
9
3

Sorties
M
C
F
Nombre des sorties
3
3
3
Seuil d'ajout g1
1.0e 6 1.0e 6 1.0e 5
Seuil d'ajout g2
1.0e 5 1.0e 5 1.0e 5
Facteur de chevauchement
15
10
15
Seuil de suppression p
1.0e 5 1.0e 5 1.0e 5
q0

1.5

0.9

1.1

105

M(1,1)
M(1,2)
M(2,2)

6
4
2
0
2

0.5
Figure

1.5

2.5

3.5

4.5

5.14: Erreur d'estimation de la matrice M par GAP-EKF-Flou

106

1
0.5
0

C(1,1)
C(1,2)
C(2;2)

0.5
1
1.5

0.5
Figure

1.5

2.5

3.5

4.5

5.15: Erreur d'estimation de la matrice C par GAP-EKF-Flou

131

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
1013

1
0.5
0

F(1)
F(2)
F(3)

0.5
1

Figure

0.5

1.5

2.5

3.5

4.5

5.16: Erreur d'estimation du vecteur du frottement F par GAP-EKF-Flou

Positions (Rad)

Consigne
Articulation 1
Articulation 2
Articulation 3

0.5

0
0

0.5

1.5

2.5

3.5

4.5

Temps(s)
Figure

5.17: Positions des 3 articulations par GAP-EKF-Floue

Erreur (rad)

Articulation 1
Articulation 2
Articulation 3

0.5

1
0

0.5

1.5

2.5

3.5

4.5

Temps(s)

Figure

5.18: Erreurs de poursuite des 3 articulations par GAP-EKF-Floue

5 Conclusion
Dans ce chapitre, nous avons prsent un algorithme d'apprentissage en ligne des
rseaux de neurones RBF pour l'approximation des fonctions du modle d'un systme
non linaire.
132

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF

Sgnal de commande

600

Articulation 1
Articulation 2
Articulation 3

400
200
0
0

0.5

1.5

2.5

3.5

4.5

Temps(s)
Figure

5.19: Signaux de commande des 3 articulations par GAP-EKF-Floue

Gains K

Articulation 1
Articulation 2
Articulation 3

200
400
600

0.5

1.5

2.5

3.5

4.5

Temps (s)
Figure

5.20: Sorties du contrleurs ous (gains K) par GAP-EKF-Floue

Table

5.4: Erreurs d'estimation des 3 rseaux RBF par GAP-EKF.

Secondes
1-2
3-4
5-6
7-8
9-10

Sans bruit
RBFM

5.41e-6
6.27e-8
2.49e-8
1.56e-8
2.85e-8

RBFC

4.53e-7
4.45e-8
7.92e-8
3.33e-8
9.74e-8

Avec bruit
RBFF

1.16e-16
2.22e-17
8.88e-17
3.05e-17
8.72e-17
133

RBFM

2.62e-5
3.54e-7
4.02e-7
8.23e-7
5.14e-7

RBFC

9.21e-6
6.55e-8
8.22e-8
5.36e-8
1.94e-8

RBFF

3.88e-15
3.29e-16
1.24e-16
5.86e-16
2.11e-16

Chapitre 5. Apprentissage en ligne des rseaux de neurones RBF par l'approche


GAP-EKF
L'approche GAP-EKF est base sur deux stratgies, Growing and pruning (GAP) pour
ajouter ou supprimer des neurones, et un ltre de Kalman tendu (EKF) pour modier
les paramtres du rseau (poids, centres et largeurs).
L'algorithme en question commence avec un rseau vide (avec 0 neurones) et tente
de construire l'architecture du rseau fur et mesure que les couples entres/sorties
seront prsentes. Il procde soit en modiant les paramtres (poids, centres et largeur)
du neurone le plus proche de l'entre prsente si celle-ci est assez proche. Sinon il ajoute
un nouveau neurone pour pouvoir ragir la nouvelle entre.
Aprs chaque prsentation de couples, l'algorithme lague le rseau en supprimant le
neurone le moins signiant pour empcher le rseau de s'accroitre exponentiellement et
ainsi rduire le temps de calcul.
L'algorithme d'apprentissage a t utilis dans une approche de commande sliding
mode base de l'intelligence computationnelle (approche GAP-EKF-Flou) pour palier
aux limites de la commande sliding mode cites dans le Chapitre 1, section 6.2.3, elle
est constitue de :
1- Un rseau de neurones RBF avec l'algorithme d'apprentissage GAP-EKF pour
estimer en ligne les paramtres du systme non linaire et ainsi annuler l'inuence des
incertitudes et bruits externes.
2- Un contrleur ou pour calculer le gain de la commande corrective et l'adapter aux
circonstances de la commande ce qui limine le chattering.
L'approche a t applique sur un pendule invers et un robot manipulateur de type
SCARA en donnant des rsultats acceptables mme en prsence des bruits et incertitudes.
Les rsultats obtenus dans ce chapitre ont donn lieu une communication et une
publication internationales, en l'occurrence :

CCCA11 pour la conception de l'approche sliding mode GAP-EKF base sur les
rseaux RBF avec un apprentissage en ligne avec l'algorithme GAP-EKF et son
application sur un pendule invers.

IJISA14a pour l'amlioration de l'approche prcdente en ajoutant un contrleur


ou en parallle et en augmentant le degr de complexit du systme utilis (robot
manipulateur (SCARA).

134

Conclusion gnrale
La commande sliding mode est une commande robuste largement utilise dans l'industrie pour commander les systmes non linaires. Ces systmes prsentent souvent des
incertitudes dans leurs modles.
La commande sliding mode est compose de deux parties, la commande quivalente
utilise le modle dynamique du systme pour le ramener vers une surface de glissement,
et la commande corrective (commutative) pour garder le systme sur la surface.
La commande sliding mode soure de deux limitations majeures, la dpendance du
modle dynamique et le phnomne des oscillations hautes frquences (chattering).
Les techniques de l'intelligence computationnelle constituent des solutions possibles
ces limites. Ces techniques comportent les rseaux de neurones, la logique oue et les
algorithmes volutionnaires parmi d'autres.
La prsente thse a t ddie la rsolution des limites de la commande sliding mode
par l'application des rseaux de neurones fonctions bases radiales (RBF) et la logique
oue.
En eet, les rseaux de neurones RBF par leurs qualits d'adaptation et d'approximation sont un outil performant pour estimer les paramtres du modle du systme command. Ces performances dpendent essentiellement de la qualit de l'algorithme d'apprentissage utilis.
En premier lieu, nous avons essay de dvelopper un algorithme d'apprentissage hors
ligne en utilisant les algorithmes volutionnaires.
L'espace de recherche des paramtres d'un rseau de neurones RBF (poids, centres et
largeurs) est vaste et limit seulement par la capacit de calcul, ceci conduit forcement
l'algorithme d'apprentissage tre pig dans un ou plusieurs minima locaux. Ayant cela
comme problmatique secondaire, nous avons amlior deux algorithmes d'optimisation
an d'accrotre leurs eet de diversication : la colonie d'abeilles articielles (ABC) et
l'optimisation base sur la biogographie (BBO). L'ide tait de les hybrider avec le modle
prdateur et proies amlior.
Les algorithmes obtenus (PMBBO et ABC-PP) ont t valids par une analyse statistique via des tests non-paramtriques et compars pour choisir le meilleur entre eux an
de s'en servir pour l'apprentissage des rseaux de neurones RBF.
Du fait que l'algorithme ABC-PP est sorti du lot en tant class premier dans l'analyse
135

Conclusion gnrale
statistique, il a t appliqu pour l'apprentissage hors ligne d'un rseau de neurones pour
estimer les paramtres d'un pendule invers dans le cadre d'une commande sliding mode.
Les rsultats obtenus sont satisfaisants mais lorsque la commande sliding mode utilisant le rseau RBF a t soumise un test de robustesse en simulant des perturbations
externes et une altration du modle, les rsultats de la commande ont rapidement dtriors.
La deuxime solution est d'avoir recours un algorithme d'apprentissage en ligne,
dans ce contexte, nous avons prsent l'algorithme GAP-EKF qui est un algorithme en
ligne bas sur deux stratgies, une stratgie GAP (Growing And Pruning) et un ltre de
Kalman tendu. Il procde l'apprentissage d'un rseau en commenant avec 0 neurones
et il ne ncessite pas la disponibilit de la totalit de la base d'apprentissage. A chaque
couple entre/sortie prsent, l'algorithme dcide d'ajouter un nouveau neurone selon un
critre de distance, si ce critre n'est pas vri, les paramtres du rseau sont modis
par un ltre de Kalman tendu.
L'algorithme GAP-EKF a t utilis pour concevoir une approche de commande sliding
mode base sur les techniques de l'intelligence computationnelle. L'approche GAP-EKFFloue est compose de deux parties :
1)- Un rseau de neurones RBF avec apprentissage en ligne (GAP-EKF) pour calculer
la commande quivalente en estimant en ligne les paramtres du modle et compenser les
incertitudes et les variations du modle.
2)- Un contrleur ou pour calculer la commande corrective an d'liminer le phnomne de chattering, ce contrleur a comme entres la surface et sa drive et sa sortie est
la valeur du gain. Nous avons tudi la robustesse de la commande sliding mode obtenue
sur un pendule invers et ensuite sur un robot manipulateur de type SCARA. Les rsultats de simulation ont montr un comportement satisfaisant pour les deux systmes en
prsence de bruits et incertitudes.
Cette thse a prsent trois nouveaux algorithmes, deux algorithmes d'optimisation et
un algorithme d'apprentissage en ligne.
Les algorithmes PMBBO et ABC-PP sont de puissants algorithmes d'optimisation,

surtout ABC-PP qui a prouv ses performances travers des tests statistiques non
paramtriques et bien qu'il ait montr des limites dans notre problme (Application
des rseaux RBF pour la commande sliding mode des systmes non linaire), il a
donn de bons rsultats dans d'autres problmes d'optimisation et ses limites sont
surtout dues aux proprits des systmes non linaires et non l'algorithme luimme.
L'algorithme ABC-PP pourrait bien tre utilis pour l'optimisation du contrleur
ou savoir, le nombre et les paramtres des fonctions d'appartenance des variables
oues.
L'algorithme GAP-EKF qui est un algorithme d'apprentissage en ligne des rseaux

136

Conclusion gnrale
de neurones RBF, cet algorithme est caractris par :
1. La notion d'inuence d'un neurone a un rle important dans la slection du
neurone ajouter ou supprimer, elle permet de rduire la complexit de calcul
pour le rendre plus simple.
2. Quand aucun neurone cach n'est ajout, seuls les paramtres du plus proche
neurone doivent tre ajusts, ce qui rduit le temps de calcul global et rend
l'apprentissage plus rapide, Cette dernire un grand avantage dans les applications o un grand nombre de neurones cachs est ncessaire.
3. Le rseau RBF commence par un nombre de neurone nul, ceci nous vite de
rsoudre un autre problme dans l'apprentissage des rseaux de neurones RBF
o le nombre des neurones cachs doit tre dtermin empiriquement ce qui
inue sur les performances de n'importe quel algorithme d'apprentissage.
4. L'ide d'ajouter et supprimer des neurones selon le besoin rduit vraisemblablement le temps de calcul surtout dans la phase de modication des paramtres
par le ltre de Kalman tendu (EKF) o des matrices de grandes dimensions
sont manipules.
L'algorithme GAP-EKF est utile pour les applications ncessitant des estimations
en temps rel, il sut juste de xer ses paramtres.
Nous pouvons rsumer les rsultats obtenus dans cette thse par les productions suivantes :

137

Conclusion gnrale

Figure

5.21: Rsum des contributions

138

Bibliographie
Abraham, A. (2001). Neuro fuzzy systems : State-of-the-art modeling techniques. Master's
thesis, School of Computing & Information Technology, University Monash, Australia.
Ak, A. G. and Cansever, G. (2006a). Adaptive neural network based fuzzy sliding mode
control of robot manipulator. In IEEE Conference on Cybernetics and Intelligent Systems, volume 144, pages 16, Bangkok.
Ak, A. G. and Cansever, G. (2006b). Fuzzy sliding mode controlller with RBF networks
for robotic manipulator trajectory tracking. Lecture notes in control and information
sciences (Intelligent Control and Automation ), 144 :527532.
Belew, R., McInerney, J., and Schraudolph, N. (1991). Evolving networks : Using the genetic algorithm with connectionist learning. In Proc. Second Articial Life Conference,
pages 511547, New York.
Berbaoui, B., Benachaiba, C., Rahli, M., and Tedjini, H. (2011). An ecient algorithm
to tuning PI-controller parameters for shunt active power lter using ant colony optimization. PRZEGLAD ELEKTROTECHNICZNY (Electrical Review), 6 :140145.
Beyhan, S. and Alci, M. (2009). A new rbf network based sliding-mode control of nonlinear systems. In International Multiconference on Computer Science and Information
Technology, pages 1116.
Cant-Paz, E. and Kamath, C. (2005). An empirical comparison of combinations of evolutionary algorithms and neural networks for classication problems. IEEE Transactions
on Systems Man and Cybernetics Part B (Cybernetics), 35(5) :915927.
Carani, F., Neri, F., Cheng, J., Zhang, G., Picinali, L., Iacca, G., and Mininno, E.
(2013). Super-t multicriteria adaptive dierential evolution. In IEEE Congress on
Evolutionary Computation, CEC 2013, pages 16781685, Cancun, Mexico.
Castro, L. D. and von Zuben, F. (2001). An immunological approach to initialize centers
of radial basis function neural networks. In Proceedings of Brazilian Conference on
Neural Networks, pages 7984, Rio de Janeiro, Brazil.
139

Bibliographie
Caudell, T. P. and Dolan, C. P. (1989). Parametric connectivity : Training of constrained
networks using genetic algorithms. In Proceedings of the 3rd International Conference
on Genetic Algorithms, pages 370374.
Chen, C. S. and Chen, W. L. (1998). Robust adaptive sliding-mode control using fuzzy
modeling for an inverted-pendulum system. IEEE Transaction on Industrial Electronics, 45 :297306.
Chen, H. and Wo, S. (2013). Rbf neural network of sliding mode control for time-varying
2-dof parallel manipulator system. Mathematical Problems in Engineering, 2013 :110.
Choi, S. B. and Kim, M. S. (1997). New discrete time fuzzy sliding mode control with
application to smart structures. Journal of Guidance Control and Dynamics, 20(5) :857
864.
Conover, W. (1999). Practical nonparametric statistics. John Wiley & Sons, New York.
Crepinsek, M., Liu, S.-H., and Mernik, M. (2013). Exploration and exploitation in evolutionary algorithms : A survey. ACM Computing Surveys, 45(3) :35 :133.
Cybenko, G. (1989). Approximation by superposition of sigmoidale functions. Mathematics of of Control Signal and Systems, 2 :303314.
da Mota, J. F., Siqueira, P., de Souza, L., and Vitor, A. (2012). Training radial basis
function networks by genetic algorithms. In Proceedings of the 4th International Conference on Agents and Articial Intelligence (ICAART 2012), pages 373379, Vilamoura,
Algarve, Portugal.
Derrac, J., Garcia, S., Molina, D., and Herrera, F. (2011). A practical tutorial on the
use of nonparametric statistical tests as a methodology for comparing evolutionary and
swarm intelligence algorithms. Swarm and Evolutionary Computation, 1 :318.
Digalakis, J. G. and Margarits, K. G. (2000). On benchmarking functions for genetic
algorithms. International Journal of Computer Mathematics, 00 :127.
Doksum, K. (1967). Robust procedures for some linear models with one observation per
cell. Annals of Mathematical Statistics, 38 :878883.
Dunn, O. (1961). Multiple comparisons among means. Journal of the American Statistical
Association, 56 :5264.
Eberhart, R., Shi, Y., and Kennedy, J. (2001). Swarm Intelligence. Morgan Kaufmann.
Elsayed, S. M. M., Sarker, R., and Essam, D. L. (2013). A genetic algorithm for solving
the CEC2013 competition problems on real-parameter optimization. In IEEE Congress
on Evolutionary Computation, CEC 2013, pages 356360, Cancun, Mexico.
140

Bibliographie
Engelbrecht, A. (2003). Computational Intelligence : An Introduction. Wiley.
Erbatur, K., Kaynak, O., Sabanovic, A., and Rudas, I. (1996). Fuzzy adaptive sliding
mode control of a direct drive robot. Robotics and Autonomous Systems, 19(2) :215
227.
Ertugrul, M. and Kaynak, O. (2000). Neuro sliding mode control of robotic manipulators.
Mechatronics, 10(1-2) :243267.
Fateh, M., Ahmadi, S., and Khorashadizadeh, S. (2014). Adaptive rbf network control for
robot manipulators. Journal of AI and Data Mining, 2 :In print.
Fei, J. and Wang, Z. (2013). Adaptive neural sliding mode control of active power lter.
Journal of Applied Mathematics, 2013 :18.
Finner, H. (1993). On a monotonicity problem in step-down multiple test procedures.
Journal of the American Statistical Association, 88 :920923.
Friedman, M. (1937). The use of ranks to avoid the assumption of normality implicit in
the analysis of variance. Journal of the American Statistical Association, 32 :674701.
Garcia, S., Fernndez, A., Luengo, J., and Herrera, F. (2010). Advanced nonparametric
tests for multiple comparisons in the design of experiments in computational intelligence
and data mining : Experimental analysis of power. Information Sciences, 180 :2044
2064.
Garcia, S., Molina, D., M.Lozano, and Herrera, F. (2009). A study on the use of nonparametric tests for analyzing the evolutionary algorithms behaviour a case study on
the cec2005 special session on real parameter optimization. Journal of Heuristics, 156 :617644.
GirirajKumar, S., Jayaraj, D., and Kishan, A. (2010). PSO based tuning of a PID
controller for a high performance drilling machine. International Journal of Computer
Applications, 1(19) :1218.
Gozde, H., Taplamacioglu, M. C., and Kocaarslan, I. (2010). Applications of articial
bees colony algorithm in an automatic voltage regulator (AVR) system. International
Journal on Technical and Physical Problems of Engineering (IJTPE), 2(3) :8892.
Ha, Q. P. (1996). Robust sliding mode controller with fuzzy tuning. Electron Letters,
32(17) :16261628.
Ha, Q. P. (1997). Sliding performance enhancement with fuzzy tuning. Electron Letters,
33(16) :14211423.
141

Bibliographie
Hagan, T. M., Demuth, H., and Beale, M. (1995). Neural network design. Ed PWS
publishing company.
Hancock, P. (1992). Genetic algorithms and permutation problems : A comparison of
recombination operators for neural net structure specication. In Proceedings of the
Third International Workshop on Combinations Genetic Algorithms Neural Networks,
pages 108122.
Haykin, S. (1999). Neural Networks : A Comprehensive Foundation. Upper Saddle River,
N.J. Prentice Hall, 2nd edition edition.
Hochberg, Y. (1988). A sharper bonferroni procedure for multiple tests of signicance.
Biometrika, 75 :800803.
Hodges, J. and Lehmann, E. (1962). Ranks methods for combination of independent
experiments in analysis of variance. Annals of Mathematical Statistics, 33 :482497.
Hoerl, A. (1962). Application of ridge analysis to regression problems. Chemical Engineering Progress, 58 :5459.
Holland, M. (1987). An improved sequentially rejective bonferroni test procedure. Biometrics, 43 :417423.
Holm, S. (1979). A simple sequentially rejective multiple test procedure. Scandinavian
Journal of Statistics, 6 :6570.
Hommel, G. (1988). A stagewise rejective multiple test procedure based on a modied
bonferroni test. Biometrika, 75 :383386.
Hornik, K. (1991). Approximation capabilities of multilayer feedforward networks. Neural
Networks, 4 :251257.
Hu, S. and Lu, M. (2012). Neural fuzzy sliding mode control for a robot manipulator.
In International Conference on Mechanical Engineering and Automation Advances in
Biomedical Engineering.
Huang, G., Saratchandran, P., and Sundararajan, N. (2004). An ecient sequential learning algorithm for growing and pruning RBF (GAP-RBF) networks. IEEE Transaction on systems , Man , and Cybernitics Part B : Cybercnitics, 34(6) :22842292.
Huang, G., Saratchandran, P., and Sundararajan, N. (2005). A generalized growing and
pruning RBF (GGAP-RBF) neural network for function approximation. IEEE transaction on Neural Networks, 16(1) :5767.
Hwang, G. C. and Lin, S. C. (1992). A stability approach to fuzzy control design Fuzzy
Sets Systems, 48(3) :279287.
142

Bibliographie
Iman, R. L. and Davenport, J. M. (1980). Approximations of the critical region of the
friedman statistic. Communications in Statistics - Theory and Methods, 9(6) :871595.
Jezernik, K., Rodic, M., Safaric, R., and Curk, B. (1997). Neural network sliding mode
robot control. Robotica, 15 :2330.
Jiao, B. and Wang, L. (2010). Rbf neural network sliding mode control for variable-speed
adjustable-pitch system of wind turbine. In International Conference on Electrical and
Control Engineering,, pages 3998  4002, Wuhan, China.
Jog, P., Suh, J., and Gucht, G. (1991). Parallel genetic algorithms applied to the traveling
salesman problem. SIAM Journal on Optimization, 1(4) :515529.
Johnson, M. A. and Moradi, M. H. (2005). PID Controllers :New Identication and
Design Methods. Springer.
Kadirkamanathan, V. and Niranjan, M. (1993). A function estimation approach to sequential learning with neural networks. Neural Computation, 5 :954975.
Karaboga, D. (2005). An idea based on honey bee swarm for numerical optimization.
Technical report tr06, Erciyes University, Engineering Faculty, Computer Engineering
Department.
Karaboga, D., Akay, B., and Ozturk, C. (2007). Articial bee colony (ABC) optimization
algorithm for training feed-forward neural networks. Modeling Decisions for Articial
Intelligence ( LNCS), 46(17) :318329.
Karakasoglu, A. and Sundareshan, M. K. (1995). A recurrent neural networkbased adaptive variable structure model-following control of robotic manipulators. Automatica,
31(10) :14951507.
Kartalopoulos, S. V. (2004). Understanding Neural Networks and Fuzzy Logic : Basic
Concepts and Applications. IEEE Press - PHI.
Khalil, S. (2003). Inverted pendulum analysis, design and implementation. Technical
report, The Instrumentation and Control Lab at the Institute of Industrial Electronics
Engineering, Pakistan.
Kim, H. G. and Oh, S. Y. (1995). Locally activated neural networks and stable neural controller design for nonlinear dynamic systems. International Journal of Neural
Systems, 6(1) :91106.
Kim, J. S. (2008). Auto tuning PID controller based on improved genetic algorithm for
reverse osmosis plant. In Proceedings of the World Academy of Science and Engineering.
143

Bibliographie
Kitano, H. (1990). Empirical studies on the speed of convergence of neural network
training using genetic algorithms. In Proceedings of the Eighth National Conference on
Articial Intelligence, pages 789795.
Klir, G. and Yuan, B. (1995). Fuzzy Sets and Fuzzy Logic Theory and Applications.
Prentice Hill PTR, Upper Saddle River, NJ, USA.
Kusiak, A. (2000). Computational Intelligence in Design and Manufacturing. WileyInterscience.
Lahoty, P. and Parmar, G. (2013). A comparative study of tuning of PID controller using
evolutionary algorithms. International Journal of Emerging Technology and Advanced
Engineering, 3(1) :640644.
Leung, F., Lam, Ling, S., and Tam, P. (2003). Tuning of the structure and parameters of
a neural network using an improved genetic algorithm. IEEE Transactions on Neural
Networks, 14(1) :7988.
Levene, H. (1960). In contributions to probability and statistics. Essays in Honor of
Harold Hotelling, pages 278292.
Lewis, F., Abdallah, C. T., and Dawson, D. M. (1993). Control of Robot Manipulators.
Macmillan Publishing Company, Inc, USA.
Li, J. (2008). A two-step rejection procedure for testing multiple hypotheses. Journal of
Statistical Planning and Inference, 138 :15211527.
Li, Y., Luo, Y., Zhao, Z., and Li, J. (2007). Internal model control of pm synchronous
motor based on rbf network optimized by genetic algorithm. In IEEE International
Conference on Control and Automation ICCA 2007., Guangzhou, China.
Li, Y., Ng, K. C., MurraySmith, D. J., Gray, G. J., and Sharman, K. C. (1996). Genetic algorithm automated approach to the design of sliding mode control systems.
International Journal of Control, 63(4) :721739.
Li, Y., Sundararajan, N., and Saratchandran, P. (2000). Analysis of minimal radial basis
function network algorithm for real-time identication of nonlinear dynamic systems. In
Control Theory and Applications, IEEE Proceedings, volume 147(4), pages 476484.
Liang, J., Qu, B., Suganthan, P., and Diaz, G. H. (2013). Problem denitions and evaluation criteria for the CEC2013 special session and competition on real parameter
optimization, technical report. Technical Report 201212, Computational Intelligence
Laboratory, Zhengzhou University, Zhengzhou China.
144

Bibliographie
Liao, T. and Stutzle, T. (2013). Benchmark results for a simple hybrid algorithm on
the CEC2013 benchmark set for real-parameter optimization. In IEEE Congress on
Evolutionary Computation, CEC 2013, pages 19381944, Cancun, Mexico.
Lin, S. C. and Chen, Y. Y. (1997). Design of self-learning fuzzy sliding mode controllers
based on genetic algorithms. Fuzzy Sets Systems, 86(2) :139153.
Liu, Y., Zheng, Q., Shi, Z., and Chen, J. (2004). Training radial basis function networks
with particle swarms. Advances in Neural Networks ISNN 2004 LNCS, 3171 :317322.
Ma, H. and Simon, D. (2011). Blended biogeography-based optimization for constrained
optimization. Engineering Applications of Articial Intelligence, 220 :517525.
Ma, H., Simon, D., Fei, M., and Xie, Z. (2013). Variations of biogeography-based optimization and markov analysis. Information Sciences, 220 :492506.
Macarthur, R. and Wilson, E. (1967). The Theory of Biogeography. Princeton, NJ :
Princeton Univ. Press.
Mahajan, R. and Kaur, G. (2013). Neural networks using genetic algorithms. International
Journal of Computer Applications, 77(14) :611.
Mamdani, E. H. and Assilian, S. (1975). An experiment in linguistic synthesis with a
fuzzy logic controller. International Journal of Man-machine Studies, 7 :113.
Marshall, S. J. and Harrison, R. F. (1991). Optimization and training of feedforward
neural networks by genetic algorithms. In Proc. Second Int. Conferencee on Artical
Neural Networks Genetic Algorithms, pages 3943.
McCulloch, W. S. and Pitts, W. (1943). A logical calculus of the ideas immanent in
nervous activity. Bulletin of Mathematical Biophysics, 5 :115133.
Miller, B. L. and Goldberg, D. E. (1995). Genetic algorithms, tournament selection and
the eects of noise. Complex System, 9(3) :193212.
Miller, G. F., Todd, P. M., and Hegde, S. U. (1989). Designing neural networks using
genetic algorithms. In Proc. Third Int. Conf. Genetic Algorithms, pages 379384.
Mitchell, M. (1998). An Introduction to Genetic Algorithms. Prentice-Hall.
Moody, J. and Darken, C. (1995). Fast learning in network of locally-tuned processing
units. Neural Computation, 1 :606623.
Nagaraj, B. and Vijayakumar, P. (2011). A comparative study of pid controller tuning
using ga, ep, pso and aco. Journal of Automation, Mobile Robotics & Intelligent Systems, 5(2) :4248.
145

Bibliographie
Nandy, S., Sarkar, P. P., and Das, A. (2012). Traaining a feedforward neural network
with articial bees colony based backpropagation method. International Journal of
Computer Science & Information Technology (IJCSIT), 4(4) :3346.
Nepomuceno, F. V. . and Engelbrecht, A. (2013). A self-adaptive heterogeneous pso
for real-parameter optimization. In IEEE Congress on Evolutionary Computation,
CEC2013, pages 361368, Cancun, Mexico.
Orr, M. J. L. (1995). Regularization in the selection of radial basis function centers.
Neural Computation, 7 :606623.
Paschos, V. T. (2005). Optimisation combinatoire : concepts fondamentaux. Hermes
science publication.
Psaltis, D., Sideris, A., and Yamamura, A. A. (1988). A multilayered neural network
controller. IEEE Control Systems Magazine, 8 :1721.
PugaGuzman, S., MorenoValenzuela, J., and Santibanez, V. (2014). Adaptive neural
network motion control of manipulators with experimental evaluations. Scientic World
Journal, 2014 :113.
Qasem, S. and Shamsuddin, S. (2009). Improving performance of radial basis function
network based with particle swarm optimization. In Evolutionary Computation. CEC09.
IEEE Congress on, pages 31493156.
Quade, D. (1979). Using weighted rankings in the analysis of complete blocks with additive
block eects. Journal of the American Statistical Association, 74 :680683.
Radclie, N. J. (1990). Genetic neural networks on MIMD computers. PhD thesis, University of Edinburgh, Scotland.
Rajasekaran, S. and Pai, G. A. V. (2003). Neural Networks, Fuzzy Logic and Genetic
Algorithms : Synthesis and Applications. PHI.
Rom, D. (1990). A sequentially rejective test procedure based on a modied bonferroni
inequality. Biometrika, 77 :663665.
Rong, H., Sundararajan, N., Huang, G., and Saratchandran, P. (2006). Sequential adaptive
fuzzy inference system (SAFIS) for nonlinear system identication and prediction. Fuzzy
Sets and Systems, 157-9 :12601275.
Rossomando, F. G., Soria, C., and Carelli, R. (2013). Sliding mode neuro adaptive control
in trajectory tracking for mobile robots. Journal of Intelligent & Robotic Systems, 74(34) :931944.
146

Bibliographie
Ruijun, D. (2009). Dierential evolution versus particle swarm optimization for PID
controller design. In Fifth International Conference on Natural Computation, ICNC
'09.
Sabanovic, A., Jezernik, K., and Rodic, M. (1996). Neural network application in sliding
mode control systems. In IEEE International Workshop on Variable Structure Systems
(VSS 96), pages 143147, Tokyo, Japan.
Salahshoor, K. and Jafari, M. R. (2007). On-line identication of non-linear systems using
adaptive RBF-based neural networks. International Journal of Information Science and
Management (IJISM), 5(2) :99121.
Salem, M. and Khel, M. F. (2011). RBF based sliding mode control for robot manipulators. In International Conference on Communications, Computing and Control
Applications (CCCA 2011), Hammamet, Tunisia.
Salem, M. and Khel, M. F. (2012). Application of biogeography based optimization in
tuning a PID controller for nonlinear systems. In In : IEEE International Conference
on Complex Systems (ICCS), Agadir , Morocco.
Salem, M. and Khel, M. F. (2013). Nonlinear inverted pendulum PID control by an
improved articial bees colony-predator and prey approach. In 3rd International Conference on Systems and Control ICSC13, Algiers, Algeria.
Salem, M. and Khel, M. F. (2014a). An enhanced swarm inteligence based training
algorithm for RBF neuraal networks in function approximation. In The 2nd World
Conference on Complex Systems, In press.
Salem, M. and Khel, M. F. (2014b). Optimization of nonlinear controller with an enhanced biogeography approach. An International Journal of Optimization and Control :
Theories & Applications, 4(2) :7787.
Salem, M. and Khel, M. F. (2014c). Predator and prey modied biogeography based
optimization approach (PMBBO) in tuning a PID controller for nonlinear systems.
International Journal of Intelligent Systems and Applications(IJISA), 6(11) :1220.
Salem, M. and Khel, M. F. (2014d). Sequential adaptive RBF-fuzzy variable structure
control applied to robotics systems. International Journal of Intelligent Systems and
Applications, 6(10) :1929.
Sayed, M. M., Saad, M. S., Emara, H. M., and El-Zahab, A. E. E. (2012). A novel method
for PID tuning using a modied biogeography-based optimization algorithm. In 24th
Chinese Control and Decision Conference (CCDC), Taiyuan , China.
147

Bibliographie
Seeley, T. (1995). The wisdom of the hive. Harvard University Press, Cambridge.
Shaei, S. E. (2010). Sliding mode control of robot manipulators via intelligent approaches.
In Advances strategies for Robots manipulators, pages 135172. Sciyo.
Shapiro, S. S. and Wilk, M. B. (1965). An analysis of variance test for normality (complete
samples). Biometrika, 52(3,4) :591611.
Sheskin, D. (2006). Handbook of Parametric and Nonparametric Statistical Procedures.
Chapman & Hall CRC, 4th edition.
Shi, X., Zhao, H., and Chen, J. (2012). Advances in Computer Science and Information
Engineering, chapter Terminal Sliding Mode Control for STT Missile Based on RBF
Neural Network, pages 4954. Springer Berlin Heidelberg.
Si, T., Hazra, S., and Jana, N. D. (2012). Articial neural network training using differential evolutionary algorithm for classication. In Proceedings of the International

Conference on Information Systems Design and Intelligent Applications (INDIA 2012)


held in Visakhapatnam, India, January, volume 132 132, pages 769778, Visakhapatnam, India.

Silva, M., dos S Coelho, L., and , R. . F. (2010). Biogeography-based optimization


approach based on predator-prey concepts applied to path planning of 3-dof robot
manipulator. In IEEE Conference Emerging Technologies and Factory Automation
(ETFA), pages 18, Cracow, Poland.
Simon, D. (2008). Biogeography-based optimization. IEEE Transactions on Evolutionary
Computation, 12(6) :702713.
Skinner, A. and Broughton, J. Q. (1995). Neural networks in computational material
science : training algorithms. Modelling and Simulation in Material Science and Enginnering, 3 :371390.
Slotine, J. J. E. and Li, W. (1991). Applied Nonlinear Control. Prentice-Hall.
Solihin, M. I., Tack, L., and Kean, M. L. (2011). Tuning of PID controller using particle
swarm optimization (PSO). In Proceeding of the International Conference on Advanced
Science, Engineering and Information Technology 2011, Bangi-Putrajaya, Malaysia.
Song, S., Zhang, X., and Tan, Z. (2014). Rbf neural network based sliding mode control
of a lower limb exoskeleton suit. Journal of Mechanical Engineering, 60(6) :437446.
Soundarrajan, A., Sumathi, S., and Sundar, C. (2010). Ant colony optimization based
PID tuning for AVR in autonomous power generating systems. International Journal
of Recent Trends in Engineering and Technology, 3(4) :125129.
148

Bibliographie
Sundareswaran, K. (2008). D.C. motor speed controller design through a colony of honey
bees. In TENCON (IEEE Region) conference, pages 16.
Tai, N. and Ahn, K. (2010). A rbf neural network sliding mode controller for sma actuator.
International Journal of Control, Automation, and Systems, 8(6) :12961305.
Takagi, T. and Sugeno, M. (1985). Fuzzy identication of systems and its applications to
modeling and control. IEEE Trans. Systems, 15 :116132.
Tereshko, V. (2000). Reaction-diusion model of a honeybee colonys foraging behaviour.
Parallel Problem Solving from Nature PPSN VI (LNCS), 1917 :807816.
Thierens, D., Suykens, J., Vandewalle, J., and Moor, B. D. (1991). Genetic weight optimization of a feedforward neural network controller. In Proceedings of the Conference
on Neural Nets and Genetic Algorithms. 1991, pp. 658-663, Springer Verlag., pages
658663.
Verhoeven, M. and Aarts, E. (1995). Parallel local search. Journal of Heuristics, 1(1) :43
65.
Wang, X. (1994). Adaptive Fuzzy Systems and Control. NJ :Prentice-Hall Englewood
Clis.
Widrow, B. and Lehr, M. A. (1990). 30 years of adaptive neural networks : Perceptrons,
madeline and backpropagation. Proceedings of the IEEE, 78(9) :14151442.
Wolpert, H. D. and Macready, W. (1997). No free lunch theorems for optimization. IEEE
Transactions on evolutionary computation, 1(1) :6782.
Xia, G. and Wu, H. (2013). Advances in Swarm Intelligence, chapter Network-Based
Neural Adaptive Sliding Mode Controller for the Ship Steering Problem, pages 497
505. Springer Berlin Heidelberg.
Yeremia, H., Yuwono, N. A., Raymond, P., and W.Budiharto (2013). Genetic algorithms
and neural networks for optical character recognition. Journal of Computer Science, 9
(11) : :14351442.
Yin, F., Wang, J., and Guo, C. (2004). Design of PID controllers using genetic algorithms approach for low damping slow response plants. Advances in Neural Networks,
3174 :219220.
Yoo, B. and Ham, W. (1998). Adaptive fuzzy sliding mode control of nonlinear system.
IEEE Transactions on Fuzzy Systems, 6 :315321.

149

Bibliographie
Youxin, L. and Xiaoyi, C. (2010). Tuning PID control parameters on hydraulic servo
control system based on dierential evolution algorithm. In 2nd International Conference on Advanced Computer Control (ICACC).
Yu, B. and He, X. (2006). Training radial basis function networks with dierential evolution. In Proceedings of IEEE International Conference on Granular Computing, pages
369372, Atlanta, GA, USA.
Yu, X. H., Man, Z. H., and Wu., B. L. (1998). Design of fuzzy sliding mode control
systems. Fuzzy Sets Systems, 95(3) :295306.
Zadeh, L. (1965). Information and control. Fuzzy Sets, 8 :338353.
Zain, B. A. M., Tokhi, M., and Toha, S. (2009). PID based control of a single-link exible
manipulator in vertical motion with genetic optimisation. In Third UKSim European
Symposium on Computer Modeling and Simulation., Athens, Greece.
Zar, J. (2009). Biostatistical Analysis, volume 3. Prentice Hall.
Zhang, R. (2005). Ecient Sequential and Batch Learning Articial Neural Network
Methods for Classication Problems. PhD thesis, Nanyang Technological University.
Zhang, Y., Li, T., and Yi, J. (2012). Adaptive neural network sliding mode control
based on particle swarm optimization for rotary steering drilling stabilized platform.
International Journal of Advancements in Computing Technology(IJACT), 4(19) :107
114.

150

Annexes

151

Annexe A
Systmes non linaires utiliss
1 Systme masse ressort amortisseur
Le systme masse ressort amortisseur (cf. Figure A.1) est un systme non linaire
dcrit par l'quation direntielle de deuxime ordre (A.1).
x(t)
b
k

Figure

m
u(t)

A.1: Systme masse ressort amortisseur.

b
k
1
1
x + x + x3 u.
(A.1)
m
m
m
m
o m est la masse, u(t) est la force exerc, k est la constante de rigidit du ressort et
b : le coecient d'amortisseur. avec m = 1kg , b = 10N s/m,k = 20N/m.
x =

2 Pendule invers
Le pendule invers est un systme form d'une tige monte en inverse sur un chariot
mobile ; Il est un systme non linaire de second ordre dont le modle est donne par
vecteur d'tat, d(t) est le vecteur des perturbations
l'quation (A.2) avec x(t) = [, ]
externes et u(t) le vecteur de commande (Khalil, 2003).
Le systme pendule invers modliser est reprsent par la Figure A.2.

152

Annexe A. Systmes non linaires utiliss

mc

Figure

u(t)

A.2: Pendule invers simple.

En exerant une force horizontale u(t) sur le chariot, celui-ci se dplace en translation
de x mtres et provoque une dviation du pendule de radians.

= f (x) + g(x)u(t) + d(t).

(A.2)

o :
gsin ml2 cos sin /(mc + m)
=
l(4/3 mcos2 /(mc + m))
+

cos x1 /(mc + m)
u(t) + d(t). (A.3)
l(4/3 mcos2 /(mc + m))

et sont la positions et vitesse angulaires de la tige respectivement, g :la gravit, m la


masse de la tige et mc la masse du chariot ; l la moiti de la longueur de la tige et et d(t)
reprsente le bruit (Khalil, 2003) avec m = 0.1Kg , mc = 1Kg , g = 9.8m/s2 et l = 0.5m.

3 Robots manipulateurs
Un robot est un systme mcanique multi-articul m par des actionneurs et destin
eectuer une grande varit de tches (cf. Figure A.3).
Le modle dynamique d'un robot manipulateur de n degrs de libert est donn par
l'quation (A.4) (Lewis et al., 1993) :
M (q)
q + C(q, q)
q + G(q) + F (q)
=

(A.4)

o q, q,
q sont les vecteurs des position, des vitesses et acclrations angulaires respectives,
est le vecteur des couples. M (q) est la matrice d'inertie, elle est symtrique et dnie
positive, C(q, q)
est la matrice de Coriolis/Centrifuges et G(q) est le vecteur de gravit.
F (q)
est le vecteur de frottement.

153

Annexe A. Systmes non linaires utiliss


q3
L3
q2
L2

L1
q1

Figure

A.3: Robot manipulateur.

Dans le cas d'un robot SCARA 3 ddl , les matrices du modle sont donns par
l'quation (A.5) (Ak and Cansever, 2006b) :
M (q)
q + C(q, q)
q + G(q) + F (q)
= .

(A.5)

avec :

M (q) =

M11 = 2.1240 + 1.44cos(q2 )

M12 = 0.4907 0.72cos(q2 )

M =0
13

M21 = 0.4907 0.72cos(q2 )

M22 = 0.4907, M23 = 0

M31 = M32 = M33 = 0

C11 = 1.44.q2 .sin(q2 )

C12 = 0.72.q2 .sin(q2 )


C(q, q)
=
C22 = 0.72.q2 .sin(q2 )

C13 = C21 = C23 = 0

C31 = C32 = C33 = 0

G1 = 0
G(q) =
G2 = 0

G3 = 4.9

154

(A.6)

(A.7)

(A.8)

Annexe A. Systmes non linaires utiliss

F1 = 12q1 + 0.02sign(q1 )+

3sin(3t)

F = 12q + 0.02sign(q )+
2
2
2
F (q)
=

3sin(3t)

F = 12q + 0.02sign(q )+

3
3
3

3sin(3t)

(A.9)

Les bruits externes sont donnes par :

5sin(2t)

d = 5sin(2t)
5sin(2t)

155

(A.10)

Вам также может понравиться