Академический Документы
Профессиональный Документы
Культура Документы
N° d’Ordre :…………..
Série :………………...
MEMOIRE DE MAGISTER
Présenté Par
THEME
Soutenu le : .../…/2007
Année 2007
אאא
א
Remerciements
Je remercie Allah tout puissant qui m'a donné la force et la volonté pour pouvoir
finir ce mémoire de magister
Je tiens à remercier, tous ceux qui m'ont enseigné durant toutes mes études et en
particulier mes enseignants à l’université de Constantine
DEDICACES
Je dédie ce mémoire
A mes chers parents pour tout les sacrifices consentis, pour leur soutient durant toute mes
années d'études. Pour leur bonté et leur amour.
A Khaoula
Guitani Issam
SOMMAIRE
Chapitre I
Introduction générale........................................................................................................ 1
Chapitre II
I Introduction……….……………………………………………………………………3
II Eléments de base………………………………………………………………………3
II.1 Structure de base ................................................................................................ 3
II.2 Fonction d'activation.......................................................................................... 4
II.3 C’est quoi un réseau de neurones ?.................................................................... 5
II.4 L'apprentissage des réseaux de neurones........................................................... 6
II.5 Algorithme d'apprentissage................................................................................ 6
III Les réseaux de neurones dans la commande des systèmes……………………………7
III .1 La commande inverse...................................................................................... 8
III.2 Commande basée sur l’erreur de sortie ............................................................ 9
III. 3 Commande adaptative neuronale................................................................... 10
III.3.1 La commande adaptative neuronale indirecte ......................................... 11
III.3.2 La commande adaptative neuronale directe ............................................ 12
Chapitre III
I Introduction……………………………………………………………………………13
II. Structure de base de la commande adaptative neuronale à retour d’état ……………13
II.1 Les réseaux de neurones ................................................................................. 14
II.2 Le système à inférence floue............................................................................ 15
III Structure de la commande adaptative neuronale à retour de sortie…………………18
III.1 La structure de base ........................................................................................ 18
III.2 Les observateurs non linéaires........................................................................ 19
Chapitre IV
Résultats de simulation................................................................................................... 21
I Introduction……………………………………………………………………………21
II les résultats de simulation…………………………………………………………….21
II.1 Exemple 1: le pendule inverse ......................................................................... 21
a) Retour d’état ................................................................................................... 22
b) Le retour de sortie .......................................................................................... 23
c) Résultats ......................................................................................................... 23
II 2 Exemple 2: Le CSTR ....................................................................................... 30
a)Retour de d’état ............................................................................................... 31
b) Le retour de sortie .......................................................................................... 32
c) Résultats ......................................................................................................... 32
Chapitre V
Annexe A
REFERENCES ............................................................................................................... 42
LISTE DES FIGURES
INTRODUCTION GENERALE
Chapitre I Introduction générale
Chapitre I
Introduction générale
Les réseaux de neurones artificiels ont trouvé une large utilisation dans le
domaine de la commande des systèmes non linéaires. Ceci est dû à leur propriété
d’approximation universelle qui les rend capables d’approximer, avec un degré de
précision arbitraire fixé, n’importe quelle fonction non linéaire [3,6]. Les réseaux à base
de perceptrons multicouches, Multi Layer Perceptrons, MLP, et les fonctions radiales de
base RBF, sont les plus utilisés. Les premières applications des réseaux de neurones en
commande n’étaient pas basées sur des analyses de stabilité rigoureuses. Plus tard,
cependant, la théorie de Lyapunov a été introduite pour calculer des lois adaptatives
garantissant la stabilité du système en boucle fermée. En général, la loi de commande
est exprimée en fonction des non linéarités du modèle du système suivant la méthode de
linéarisation entrée-sortie. Les réseaux de neurones sont, ensuite, utilisés soit pour
approcher directement la loi de commande soit pour approcher les non linéarités
formant ainsi une loi de commande neuronale adaptative. Le modèle non linéaire utilisé
dans ces études satisfait les conditions de linéarisation entrée sortie. Dans tous ces
travaux, le signal erreur utilisé pour l’apprentissage dans les lois d’adaptations est basé
sur l’erreur de poursuite.
Dans ce mémoire, une structure de commande neuronale avec des lois
d’adaptation basée sur le signal erreur de commande est étudiée. Dans ce cas la
fonction à optimiser dépend alors directement des poids. Cependant, le signal de
commande idéale ne pouvant être calculé, il est remplacé par une estimée, cette estimée
sera obtenue par un système d’inférence flou.
Dans le deuxième chapitre, nous présentons les éléments de base et les
principales techniques de la commande à base de réseaux de neurones.
Page 1
Chapitre I Introduction générale
Page 2
CHAPITRE II
Chapitre II
I Introduction:
La recherche sur les réseaux de neurones a connu un développement important
ces dernières années, tant du coté architecture où plusieurs modèles sont proposés, que
du coté algorithmes d’apprentissages utilisés pour entraîner ces réseaux. En effet, ces
travaux de recherche ont montré que les réseaux de neurones sont des approximateurs
universels, ce qui permet de modéliser n’importe quel système non linéaire, et ils sont
principalement, dotés de deux propriétés importantes : l’apprentissage et la
généralisation. Ces travaux de recherche ont donné lieu à des applications trés
intéressantes des réseaux de neurones dans plusieurs domaines, et en particulier le
domaine de la commande des systèmes non linéaires.
II Eléments de base:
Page 3
Chapitre II Les réseaux de neurones dans la commande des systèmes
wn+1 seuil
w1
⎧ x1
⎪ yn
signaux⎪ x2 w2 Σ φ(s)
d'entrée⎨ Sortie
⎪ wn
⎪⎩ xn
Unité de Fonction
Les poids sommation d'activation
synaptique
Un neurone formel est une fonction algébrique non linéaire et bornée, dont la
valeur dépend des paramètres appelés poids synaptiques ou poids des connexions.
D’une façon plus générale, un neurone formel est un élément de traitement (opérateur
mathématique) possédant n entées (qui sont les neurones externes ou les sorties des
autres neurones), et une seule sortie. Ce modèle est décrit mathématiquement par les
équations suivantes:
n +1
s = ∑ wi xi
i =1 (1)
y n = ϕ ( s)
Où xi, wi, ϕ et yn sont respectivement, les entrées, les poids synaptiques, la fonction
d'activation et la sortie du neurone.
Page 4
Chapitre II Les réseaux de neurones dans la commande des systèmes
a b c d
Page 5
Chapitre II Les réseaux de neurones dans la commande des systèmes
J=
1 m
∑
2 q =1
(y rq ( Xp ) − y qd ( Xp ) )
2
(2)
Où yrq et y qd sont la sortie du réseau et la sortie désirée pour le vecteur d'entrée Xp.
Cette optimisation se fait d'une manière itérative, en modifiant les poids en fonction du
gradient de la fonction de coût selon la loi d'adaptation suivante:
Page 6
Chapitre II Les réseaux de neurones dans la commande des systèmes
∂J
w lji (k + 1) = w lji (k ) − η (3)
∂w lji
Où
w lji est le poids de la connexion entre le jème neurone de la couche l et le ième neurone de
la couche l-1
i=1,…,n+1 la ième composante du vecteur d'entrée,
j=1,…,m+1 la ième composante du vecteur de sortie,
l=1,…,L l'ordre d'une couche dans le réseau de neurone,
η est une constante positive appelée taux d'apprentissage.
Le gradient est calculé par une méthode spécifique aux réseaux de neurones,
dites méthode de rétro propagation. Dans cette méthode il est possible de calculer le
gradient de la fonction coût en retropropageant l'erreur commise en sortie vers les
couches cachées.
Page 7
Chapitre II Les réseaux de neurones dans la commande des systèmes
U(t)
Yd(t) F-1(.) F(.) Y(t)
Page 8
Chapitre II Les réseaux de neurones dans la commande des systèmes
y(t)
ur(t)
u(t) ⊕
ea
Lorsque l’apprentissage est réalisé le réseau peut être utilisé comme contrôleur inverse.
Cette méthode peut être appliquée aux systèmes invariants dans le temps.
yra
Modèle de
référence connu
ea
L’objectif est d’entraîner le réseau pour trouver les poids qui minimisent
1
J= [ y ra (t ) − y(t )]2 = 1 [ea (t )]2 (6)
2 2
Page 9
Chapitre II Les réseaux de neurones dans la commande des systèmes
La commande u(t) dépend des poids du réseau, la mise à jour est alors de la forme :
∂J ∂y ∂u
v(t + 1) = v(t ) − α (7)
∂y ∂u ∂v
∂y
Mais on ne connaît pas le Jacobien
∂u
Plusieurs propositions ont été faites pour résoudre le problème du Jacobien, une des
premières a été de créer un émulateur qui modélise le système.
yra
Modèle de
référence connu
ea
émulateur
ym(t)
e(t) y(t)
Contrôleur Système
r(t) RNA
Dans cette stratégie de contrôle, les réseaux de neurones sont introduits pour
construire des systèmes de commande adaptative stable basés sur la théorie de la
stabilité de Lyapunov. Deux classes de méthodes ont été développées: directe et
indirecte:
Page 10
Chapitre II Les réseaux de neurones dans la commande des systèmes
Page 11
Chapitre II Les réseaux de neurones dans la commande des systèmes
Adaptation
fˆ ( x)
gˆ ( x)
Figure II.7 Schéma de commande indirecte basée sur la linéarisation par retour
n −1
et v = − y d( n ) + ∑ λi ei
i =1
x d est un signal de référence borné et supposé n fois dérivable. Les coefficients λi sont
choisit tel que le polynôme S n + λ n −1 S n −1 + ... + λ1 a tous ses racines strictement dans le
Page 12
CHAPITRE III
Chapitre III
I Introduction
Dans ce chapitre, nous introduisons la structure de commande neuronale basée sur un
signal d’adaptation utilisant une estimation de l’erreur de commande. Cette estimation est
délivrée par un système d’inférence flou. Deux structures de commande seront présentées dans
ce chapitre. La première structure est une commande par retour d'état, la deuxième est une
commande par retour de sortie utilisant un observateur d’état non linéaire. Ces deux structures
sont basées sur deux éléments qui seront détaillés dans ce chapitre : le réseau de neurones
contrôleur et l’estimateur flou de l’erreur de commande.
Page
13
Chapitre III Commande adaptative neuronale basée sur un estimateur de l’erreur de
commande
yd
de
êu Z
FIS
⊕
e
xd Le contrôleur u y
Le système non
neuronal linéaire
(
u(z) = W T ⋅ S V T ⋅ Z ) (2)
Page
14
Chapitre III Commande adaptative neuronale basée sur un estimateur de l’erreur de
commande
La sortie du contrôleur neuronal avec les poids Ŵ et Vˆ peut être écrite sous la forme :
⎛ ⎞
û ( z ) = Wˆ T ⋅ S ⎜⎜Vˆ T ⋅ Z ⎟⎟ (4)
⎝ ⎠
On définit l’erreur de commande :
eu* = uˆ ( z ) − u * ( z ) (5)
Si on veut trouver les poids qui minimisent cette erreur, l’objectif sera
1 * 2
J= ( eu )
2
Les lois de la mise à jour des poids sont obtenues par la dérivation de cette équation par
rapport aux ces poids et en utilisant l’algorithme du gradient avec un pas prédéterminé :
&
( )
Wˆ = − Γ w (eu* ⋅ S Vˆ T ⋅ Z + σ w ⋅ eu* ⋅ Wˆ ) (6)
&
( )
Vˆ = − Γ v (eu* ⋅ Z ⋅ Wˆ T ⋅ S ′ Vˆ T ⋅ Z + σ v ⋅ eu* ⋅ Vˆ ) (7)
( )
Où S ′ Vˆ T ⋅ Z = diag {s1′ , s 2′ ,..., sl′ } et si′ = d [S ( z )] dz z =a , Vˆ T ⋅ Z = [a1 , a 2 ,..., a l ]T
i
Et Γ w = δ w ⋅ I > 0 , Γ v = δ v ⋅ I > 0 sont les taux de mise à jour de eu* l’erreur de commande.
inférence system), est utilisé pour fournir un estimé êu . Le FIS transforme les informations
relatives à l’historique de l’erreur de poursuite ey(t)=yd(t)-y(t) en une estimé êu qui est
utilisée à la place de eu* . Le composant principal du FIS est la base de règles qui est
composée des règles sous la forme suivante :
Si X1 est Négatif, et X2 est Zéro ….. alors Eu est positif.(par exemple)
Où X1, X2 sont les variables linguistiques associées avec l’erreur de poursuite de la sortie et
sa dérivée, Eu est la variable linguistique associée avec l’erreur de commande estimé ;
Négatif, Zéro, Positif (N, Z, P) sont des valeurs linguistiques associées avec ces variables.
On peut distinguer entre deux bases de règles dépendantes à la direction relative du
signal d’entrée et la sortie.
La base de règles 1: dans le cas où l’entrée et la sortie ont la même direction CAD si l’entrée
augmente (diminue), la sortie aussi augmente (diminue), et une autre base de règles pour les
autres cas.
Page
15
Chapitre III Commande adaptative neuronale basée sur un estimateur de l’erreur de
commande
Le raisonnement heuristique pour générer BR1 et BR2 est comme suit :
¾ Eu est Z: si e(t) et de(t) sont Z, ou quand l’erreur diminue en gardant le même signe
(la sortie se rapproche de la référence de haut ou de bas),
¾ Eu est N: si e(t) est N et de(t)=0, ou de(t)<0 (la sortie se stabilise en un point
supérieur à la référence ou la sortie se diverge de la référence par le haut),
¾ Eu est P: si e(t) est N et de(t)=0, ou de(t)>0 (la sortie se stabilise en un point inférieur
à la référence ou la sortie se diverge de la référence par le bas).
Cette procédure donne une estimée avec un signe correct.
Les deux tableaux suivants résument BR1 et BR2 dans le cas ou les variables sont
fuzzifiées avec trois sous ensembles flous, N, Z et P
e e
de N Z P de N Z P
N N N Z N P P Z
Z N Z P Z P Z N
P Z P P P Z N N
La structure de base de l’estimateur flou est définie par la base de règles RB1 ou RB2. Il
comprend deux entrées floues, l’erreur de sortie et sa variation et une sortie floue, l’estimée de
l’erreur de commande êu . Les trois variables floues prennent trois valeurs linguistiques :
NEGATIVE, ZERO, POSITIVE. Pour définir complètement l’estimateur, il reste à choisir les
fonctions d’appartenance, associés aux valeurs linguistiques et leurs répartitions sur leurs
univers de discours respectifs. Celles-ci sont données par la figure III.2 ou l’on remarque que
les fonctions d’appartenance sont uniformément réparties sur l’univers de discours. Les
paramètres du FIS sont déterminés de façon à obtenir une estimée êu normalisée comme suit:
Page
16
Chapitre III Commande adaptative neuronale basée sur un estimateur de l’erreur de
commande
Ceci peut être obtenu par un choix approprié des paramètres c N , c Z et c Z de la figure 3. La
valeur numérique de l’estimée de l’ eu est calculée par la formule de défuzzification du centre
de gravité donnée par :
m
∑c µ k Bk (eˆuk ).
eˆu = k =1
m
(9)
∑µ
k =1
Bk (eˆuk )
borné par:
0 ≤ µ Bk (eˆu ) ≤ 1 (10)
La valeur de êu peut être contrôlée par le choix des coefficients ck . Les valeurs suivantes:
⎧ 0 if v ≤ c N
⎪ v − cN
⎪ if c N < v ≤ c Z
⎪ cZ − c N
µ Z (v ) = ⎨ (13)
c −v
⎪ P if c < v < c P
⎪ c p − cZ
⎪⎩ 0 if v ≥ c P
⎧ 0 if v ≤ c Z
⎪⎪ v − c Z
µ P (v) = ⎨ if c Z < v < c P (14)
⎪ c P −c Z
⎪⎩ 1 if v ≥ c P
Page
17
Chapitre III Commande adaptative neuronale basée sur un estimateur de l’erreur de
commande
v représente l’erreur de sortie e y (t ) ou sa variation de y (t ) .
c P = 0.1 pour de y (t ) .
µ A (v )
cN cZ cP
Page
18
Chapitre III Commande adaptative neuronale basée sur un estimateur de l’erreur de
commande
yd
de
êu ∂
FIS ∂t -
⊕
e
xd Le contrôleur u y
Le système non
neuronal linéaire
x̂ L’observateur de
gain élevé
x ∈ Rn
Page
19
Chapitre III Commande adaptative neuronale basée sur un estimateur de l’erreur de
commande
Supposons que la fonction y(t) et ses n dérivées sont bornées. Considérons le système linéaire
suivant :
εξ&i = ξ i +1
n (16)
εξ n = −∑ bi ⋅ ξ n −i +1 + y (t )
i =1
Où les paramètres b1,…bn sont choisis tel que le polynôme S n + b1 S n −1 + ...bn −1 S + 1 a tous ses
racines strictement dans le demi plan complexe gauche et avec bn=1
Alors il existe des constantes positives hk, k=2,3,…,n, et t* telles que pour tout t>t* on a:
ξ k +1
− y ( k ) = −εψ ( k +1) k=1,…,n-1 (17)
ε k
ξ k +1
− y ( k ) ≤ −εhk +1 k=1,…,n-1 (18)
ε k
n
Avec ε un petit nombre positif, ψ = ∑ bi ⋅ ξ n −i +1
i =1
Et ψ k ≤ hk , ψ k la dérivée d'ordre k de ψ
Page
20
CHAPITRE IV
RESULTATS DE SIMULATION
Chapitre IV Résultats de simulation
Chapitre IV
Résultats de simulation
I Introduction
Dans ce chapitre, nous présentons deux études en simulation du contrôleur neuronal
adaptatif. Le premier exemple représente la commande en mode de poursuite du système
pendule inversé et le deuxième représente un problème de régulation d’un réacteur chimique
Pour les deux exemples on appliquera les deux structures de commande par retour d’état et
retour de sortie.
m
θ
u(t)
M
Page
21
Chapitre IV Résultats de simulation
x&1 = x 2
(0.5 sin x1 (1 + 0.5 cos x1 ) x 22 − 10 sin x1 (1 + cos x1 )) + u (t ) (1)
x& 2 =
0.25(2 + cos x1 ) 2
x1 et x2 sont respectivement l’angle du pendule avec la normale et la vitesse angulaire. Il y a
deux groupes de paramètres qu’on va choisir pour contrôler ce système, ceux associés avec
l’estimateur flou et les autres associés avec le réseau de neurones. Le FIS peut être construit
tel que décrit dans le troisième chapitre pour fournir un estimé borné de l’erreur de
commande êu . Tous les ensembles flous ont des formes triangulaires uniformément
distribuées dans les univers de discours. Il ne reste qu’à choisir les paramètres du réseau de
neurones.
a) Retour d’état:
Le vecteur d'entrée du réseau de neurones est:
z = [x1 , x&1 m, kes ] est le vecteur d’entrée,
T
(2)
e s = λ ( x1 − y d ) + ( x&1 − y& d )
et λ=10 K = 5
la fonction d’activation du contrôleur neuronal est choisie comme :
1
f ( x) = (3)
1 + e−x
Les poids initiaux sont pris aléatoirement dan l’intervalle [0,1]
L’objectif de commande est de faire suivre au le pendule le signal de référence yd
y d = (π / 30) sin(t ) pour 0 ≤ t ≤ 25s ,
yd=0 pour t ≥ 60 s
Dans cette simulation la base de règles BR1 est utilisée pour l’estimateur flou. Les taux
d’apprentissage sont: δ w = δ v = 1 et σ w = σ v = 0.01 .
Page
22
Chapitre IV Résultats de simulation
b) Le retour de sortie
Le réseau de neurones contrôleur est le même que pour le retour d’état avec les mêmes
valeurs de paramètres. Comme il est indiqué dans le paragraphe III.2 du chapitre précédent on
choisit les paramètres de l’observateur non linéaire comme suit : supposons que la sortie y(t)
et ses n dérivées sont bornées et considérons le système linéaire suivant :
εξ&1 = ξ 2
εξ&2 = ξ 3 (4)
εξ 3 = −b1 ⋅ ξ 3 − b2 ⋅ ξ 2 − b3 ⋅ ξ1 + y (t )
les paramètres b1, b2 ,b3 sont choisis tels que le polynôme H = S 3 + b2 S 2 + b3 S + 1 ait toutes
ses racines strictement dans le demi plan complexe gauche. Ici on choisit ces paramètres
comme suit : b1=1, b2= 2, b3=1
Les pôles du polynôme H sont alors dans le demi plan complexe gauche et sont :
P1= -1.7549 P2= -0.1226 + 0.7449 i P2= -0.1226 - 0.7449 i
c) Résultats
Les résultats de simulation pour le pendule inverse sont présentés par les figures IV.2
à IV.6 pour la commande en retour d’état et par les figures IV.7 à IV.12 pour le retour de
sortie.
La figure IV.2 présente la sortie du système, la sortie désirée et l'erreur entre les
deux, on voit bien que la sortie suit la sortie désirée et l'erreur est presque nulle dans
l'intervalle 0 ≤ t ≤ 60 s et elle s'annule après 60s, même pour le cas de contrôleur par retour de
sortie figure IV.7 a poursuite est bien satisfaite est l'erreur est acceptable,
Le signal de commande pour les deux cas, figure IV.3 et figure IV.8 devient lisse
rapidement et il est borné, l'erreur de commande estimée par le FIS et pratiquement nulle soit
pour le cas de contrôleur par retour d'état, figure IV.4 ou par retour de sortie, figure IV.9,
Les poids synaptiques du contrôleur neuronal convergent vers des valeurs constantes
dans les deux cas, figure IV.5 et figure IV.10 et ces constantes dépendent du signal de
référence choisi. Enfin l'erreur filtrée est pratiquement nulle pour le retour d'état, figure IV.6et
acceptable pour le retour de sortie, figure IV.11. La sortie de l’observateur suit bien le signal à
observer, figure IV.12.
Page
23
Chapitre IV Résultats de simulation
(rad)
0.15
x1
0.1 x1d
0.05 e
0
-0.05
-0.1
-0.15
-0.2
0 10 20 30 40 50 60 70 80 temps (s)
(N)
4
-1
-2
-3
0 10 20 30 40 50 60 70 80 temps (s)
Page
24
Chapitre IV Résultats de simulation
(N)
2.5
1.5
0.5
-0.5
-1
0 10 20 30 40 50 60 70 80 temps (s)
6
W
V
5
1 temps (s)
0 10 20 30 40 50 60 70 80
Page
25
Chapitre IV Résultats de simulation
(rad)
2.5
1.5
0.5
-0.5
-1
0 10 20 30 40 50 60 70 80 temps (s)
Page
26
Chapitre IV Résultats de simulation
(rad)
0.15
x1
x1d
0.1 e
0.05
-0.05
-0.1
-0.15
-0.2
0 10 20 30 40 50 60 70 80 temps (s)
(N)
4
-1
-2
-3 temps (s)
0 10 20 30 40 50 60 70 80
Page
27
Chapitre IV Résultats de simulation
(N)
1
0.8
0.6
0.4
0.2
-0.2
-0.4
-0.6
-0.8
0 10 20 30 40 50 60 70 80 temps (s)
4.5
3.5
V
3 W
2.5
1.5
0.5
0
0 10 20 30 40 50 60 70 80 temps (s)
Page
28
Chapitre IV Résultats de simulation
(rad)
0.4
0.2
-0.2
-0.4
-0.6
-0.8
-1
0 10 20 30 40 50 60 70 80 temps (s)
0.1
-0.1
-0.2
-0.3
Page
29
Chapitre IV Résultats de simulation
II 2 Exemple 2: Le CSTR
Le système du CSTR (Continuously Stirred Tank Reactor) consiste en un réacteur de
volume constant. Une réaction exothermique, irréversible A → B se fait dans le réservoir;
L'objectif est de contrôler la concentration d'effluent Ca en manipulant le débit du
refroidissant. Le processus est modélisé par les équations différentielles suivantes:
E
q −
C& a = (C a 0 − C a ) − a 0 C a e RTa
V
(3)
E
⎡ − 2 ⎤
a
Ta = (T f − Ta ) + a1C a e + a3 q c ⎢1 − e qc ⎥ (Tcf − Ta )
q −
RTa
V ⎢⎣ ⎥⎦
Ca0 Tf
Ca Ta
qc Tcf
Page
30
Chapitre IV Résultats de simulation
⎡ ⎤
4
10
−
⎢ 1 − x1 − a 0 x1e x2 ⎥
x& = f ( x, u ) = ⎢ 10 4 ⎥
⎢350 − x + a x e − x2 + a u⎛⎜1 − e − u ⎞
a2
⎟(350 − x 2 )⎥
⎢ 2 0 1 3 ⎜ ⎟ ⎥
⎣ ⎝ ⎠ ⎦
y = h( x) = x1
a)Retour de d’état :
Pour ce système la base de règles BR2 est utilisée. La fonction d'activation:
1
f ( x) =
1 + e−x
Les taux d'apprentissage: δ w = δ v = 1 et σ w = σ v = 0.01 .
e s = λ ( x1 − y d ) + ( x 2 − y& d ) et λ=10
L'objectif est de faire suivre à la concentration une référence lisse qui change autour du point
de fonctionnent 0.1mol/l La référence yd(t) suit la loi suivante:
Page
31
Chapitre IV Résultats de simulation
yd ( s ) wn2
= 2 avec r(s) prend les valeurs 0.12 et 0.08
r (s) s + 2ζ n wn s + wn2
b) Le retour de sortie
c) Résultats
La figure IV.14 présente la sortie du système, la sortie désirée et l'erreur entre les
deux. On voit bien que la sortie suit la sortie désirée et l'erreur est presque nulle dans
l'intervalle 0 ≤ t ≤ 60 s et elle s'annule après 60s, même pour le cas de contrôleur par retour de
sortie, figure IV.7 la poursuite est bien satisfaite est l'erreur est acceptable,
Le signal de commande est borné pour les deux cas, figure IV.15 et figure IV.20 et
devient lisse rapidement. L'erreur de commande estimée par le FIS et pratiquement nulle soit
pour le cas de contrôleur par retour d'état, figure IV.16 ou par retour de sortie, figure IV.21.
Les poids synaptiques du contrôleur neuronal convergent vers des valeurs constantes
dans les deux cas, figure IV.17 et figure IV.22. Ces constantes dépendent du signal de
référence choisi. Enfin l'erreur filtrée est pratiquement nulle pour le retour d'état, figure IV.18
et acceptable pour le retour de sortie, figure IV.23. La figure IV.24 montre que la sortie de
l’observateur suit bien le signal à observer.
Page
32
Chapitre IV Résultats de simulation
(mol/l)
0.125
0.12
0.115
0.11
0.105
0.1
0.095
0.09
0.085
0.08
0.075
0 10 20 30 40 50 60 temps (min)
(l/min)
130
120
110
100
90
80
70
60
0 10 20 30 40 50 60 temps (min)
Page
33
Chapitre IV Résultats de simulation
(l/min)
0.2
0.15
0.1
0.05
-0.05
-0.1
-0.15
-0.2
0 10 20 30 40 50 60 temps (min)
16
14
12
10
0 temps (min)
0 10 20 30 40 50 60
Page
34
Chapitre IV Résultats de simulation
(mol/l)
0.3
0.2
0.1
-0.1
-0.2
-0.3
-0.4
0 10 20 30 40 50 60 temps (min)
Page
35
Chapitre IV Résultats de simulation
(mol/l)
0.125
0.12
0.115
0.11
0.105
0.1
0.095
0.09
0.085
0.08
0.075
0 10 20 30 40 50 60 temps (min)
(l/min)
(mol/l)
130
120
110
100
90
80
70
60 temps (min)
0 10 20 30 40 50 60
Page
36
Chapitre IV Résultats de simulation
(l/min)
0.2
0.15
0.1
0.05
-0.05
-0.1
-0.15
16
14
12
10
0 temps (min)
0 10 20 30 40 50 60
Page
37
Chapitre IV Résultats de simulation
(mol/l)
0.3
0.2
0.1
-0.1
-0.2
-0.3
-0.4
0 10 20 30 40 50 60 temps (min)
1
2ξ
x2
0.8 e
0.6
0.4
0.2
-0.2
-0.4
0 10 20 30 40 50 60 temps (min)
Page
38
CHAPITRE V
CONCLUSION GENERALE
Chapitre V Conclusion générale
Chapitre V
Conclusion générale
Page
39
ANNEXE
Annexe A
Annexe A
Les systèmes à logique floue opèrent sur des variables linguistiques au lieu des
variables numériques, ils fournissent un algorithme de conversion d’une stratégie d'inférence
linguistique basée sur l’expertise humaine en une stratégie de contrôle automatique, il est
décrit par un ensemble de règles de contrôle flou du type :
Ri : Si x est Ai et y est Bi1 alors z est Ci
La structure classique d’un système d'inférence floue FIS (Fuzzy Inference system) est
Page
40
Annexe A
Interface fuzzification
L’interface fuzzification consiste à:
9 Mesurer les valeurs numériques des variables d’entrées,
9 Les projetées dans l’univers de discours en utilisant un facteur d’échelle,
9 Transformer ces valeurs numériques en valeurs linguistiques convenable en utilisant des
fonctions d’appartenances qui servent à subdiviser l’espace d’entrée, univers du discours
en sous ensembles flous.
Base de connaissances
Elle contient les informations du domaine d'application et le but de contrôle, elle est
définie par les deux principales bases suivantes:
base de données: Elle fournit des informations nécessaires utilisées pour
l’exploration des règles d'inférence floue et la manipulation des données dans un FIS.
base de règles: Elle caractérise le but et la politique du contrôle flou via un ensemble de
règles de contrôle flou.
Logique de décision
C’est le noyau du FIS; elle est capable de simuler les décisions humaines basées sur le
concept flou et d’inférer des actions de contrôle flou par l’intervention de l’implication floue
et des règles d’inférence dans la logique floue.
Défuzzification
Elle consiste à:
9 Transformer les valeurs de la sortie comprissent dans l'univers du discours en valeurs
réelles comprissent dans le domaine de variation,
9 Extraire de la sortie de vérité la valeur numérique de la sortie.
Page
41
BIBLIOGRAPHIE
bibliographie
REFERENCES
[1] Chen F.C. & Lin C.C. (1994). Adaptively controlling nonlinear continuous time systems
using multilayer neural networks. IEEE Transactions on Automatic Control, 39, 1306-1310.
[2] Chen F.C. & Khalil H. K. (1995). Adaptive control of a class of non linear discrete-time
systems using neural networks. IEEE Transactions on Automatic Control, 40, 791-801.
[3] Funahashi, K. L. (1989). On the approximate realization of continuous mapping by neural
netorks. Neural Networks, 2, 183-192.
[4] Ge S. S. , Hang C. C. and Zhang T., A direct method for robust adaptive nonlinear
control with guaranteed transient performance, Systems and Control Letters, 37, (1999), 275-
284;
[5] Ge, S. S. & Wang, J. (2002). Robust adaptive neural control for a class of perturbed strict
feedback nonlinear systems. IEEE Transactions on Neural Network, 13, 1409-1419.
[6] Hornik, K. Stinchombe M. & White H. (1989). Multilayer feedforward networks are
universal approximators. Neural netwoks , 2, 1083-1112.
[7] Isidori A. (1989). Non linear control systems. (2nd edition) Berlin:Springer.
[8] Lewis, F. L., Yesildirek, A. & Liu, K. (1996). Multilayer neural net robot controller with
guaranteed tracking performance. IEEE Transactions on Neural Network, 7, 388-399.
[9] Passino K. M. & Yurkovich, S. (1998). Fuzzy Control. Reading, MA: Addison-Wesley.
[10] Polycarpou, M. M. (1996). Stable adaptive neural control scheme for nonlinear systems.
IEEE Transactions on Automatic Control, 41, 447-451.
[11] Sanner R. M. and Slotine J. E. (1992). Gaussian networks for direct adaptive control.
IEEE Transactions on Neural Networks, 3, 837-863.
[12] Zhang, T. Ge, SS, & Hang, C. C. (1999). Design and performance analysis of a direct
adaptive controller for nonlinear systems. Automatica, 35, 1809-1817.
Résumé
ﻓﻲ هﺬا اﻟﻌﻤﻞ ﻗﻤﻨﺎ ﺑﺪراﺳﺔ ﺧﻮارزﻣﻴﺔ ﻟﻠﺘﺤﻜﻢ اﻟﺘﻜﻴﻔﻲ اﻟﻤﺴﺘﻨﺪ ﻋﻠﻰ اﻟﺸﺒﻜﺎت اﻟﻌ ﺼﺒﻮﻧﻴﺔ اﻟﺘ ﻲ ﺗ ﺴﻤﺢ
وﺣﻴ ﺚ أﻧﻨ ﺎ. هﺬﻩ اﻟﺨﻮارزﻣﻴﺔ ﺗﻌﺘﻤﺪ ﻋﻠﻰ ﺗﻘﻠﻴﺺ اﻟﺨﻄﺄ ﻋﻠﻰ إﺷﺎرة اﻟﺘﺤﻜﻢ،ﻟﻨﺎ ﺑﺎﻟﺘﺤﺪﻳﺚ اﻟﻤﺒﺎﺷﺮ ﻟﻠﻤﻌﺎﻣﻼت
ﻻ ﻧﺴﺘﻄﻴﻊ ﺣﺴﺎب إﺷﺎرة اﻟﺘﺤﻜﻢ اﻟﻤﺜﺎﻟﻴﺔ ﻓﺈن اﻟﺨﻄﺄ ﻋﻠﻰ إﺷﺎرة اﻟﺘﺤﻜﻢ ﻳﻘﺪر ﻓﻘﻂ ﻋﻦ ﻃﺮﻳﻖ ﻧﻈﺎم ﻳﻌﺘﻤﺪ ﻋﻠ ﻰ
.اﻟﻤﻨﻄﻖ اﻟﻤﺒﻬﻢ
ﺗﻢ ﺗﺤﻘﻴﻖ ﻣﺤﺎآﺎة ﻣﻦ أﺟﻞ.ﺣﺎﻣﻼ ﻹﺷﺎرة ﺻﺤﻴﺤﺔ ﻓﺈن اﻟﺨﻄﺄ اﻟﻤﻘﺪر ﻻ ﻳﺆﺛﺮ إﻻ ﻋﻠﻰ ﺧﻄﻮة اﻟﺘﻤﺮن
واﻟﺜﺎﻧﻴ ﺔ ﻋﻠ ﻰ رﺟ ﻮع ﻣﺨ ﺎرج اﻟﻨﻈ ﺎم ﻣ ﻊ ﻣﻼﺣ ﻆ، اﻷوﻟﻰ ﺗﻌﺘﻤﺪ ﻋﻠﻰ رﺟ ﻮع ﺣ ﺎﻻت اﻟﻨﻈ ﺎم:ﺣﺎﻟﺘﻴﻦ ﻟﻠﺘﺤﻜﻢ
ﻧﺘ ﺎﺋﺞ اﻟﺪراﺳ ﺔ اﻟﻤﻄﺒﻘ ﺔ ﻋﻠ ﻰ ﻧﻈ ﺎﻣﻴﻦ ﻏﻴ ﺮ ﺧﻄﻴ ﻴﻦ هﻤ ﺎ اﻟﻨ ﻮاس اﻟﻤﻌﻜ ﻮس.ﻏﻴ ﺮ ﺧﻄ ﻲ ذي ﻣﻌﺎﻣ ﻞ آﺒﻴ ﺮ
. أﺛﺒﺘﺖ ﻓﺎﻋﻠﻴﺔ اﻟﻄﺮﻳﻘﺔ اﻟﻤﺘﺒﻌﺔ ﻟﻠﺘﺤﻜﻢCSTR واﻟﻤﻔﺎﻋﻞ اﻟﻜﻴﻤﻴﺎﺋﻲ
Abstract
In this work we have analyzed an output feedback adaptive neural control allowing
direct update of neural network weights. This algorithm is based on control error
minimization. The ideal control signal cannot be calculated, so the error control is estimated
by a fuzzy inference system. The estimate having the correct sign, it influences only the
leaning rate. A simulation study is carried out for two cases: a state feedback control and
output feedback control based on a nonlinear high gain observer. We applied this approach to
two nonlinear systems the inverted pendulum and a CSTR (Continuously Stirred Tank
Reactor). The results of simulation showed the performances of the strategy in the two cases.
.