Вы находитесь на странице: 1из 141

Des rseaux de neurones pour la dtection et la

classication des dfauts mcaniques des


machines tournantes.
1
er
juin 2004
Rsum
Ce travail a pour objectif dtudier lapplicabilit des rseaux de neurones pour
la dtection et la classication des dfauts mcaniques combins. En adoptant une
approche exprimentale par simulation de diffrents dfauts, il a voulu dgager au
travers des rsultats de classication les indicateurs de lanalyse vibratoire qui ont
dtermin les performances de classication.
Une analyse en composante principale a servi non seulement la rduction di-
mensionnelle de lespace des indicateurs mais aussi rsoudre la question de savoir
quels indicateurs sont les plus pertinents.
Mots-cls : Analyse vibratoire, Rseau de neurones, Analyse en Composantes Prin-
cipales, Maintenance conditionnelle, Diagnostic des dfaillances.
i
A Esprance, Noerlyne et Sylvie
qui ont daign comprendre la raison de mon absence.
ii
Remerciements
Mes remerciements sadressent, en premier lieu, au Professeur P. Dehombreux, pro-
moteur de ce travail, dont la cordialit, le positivisme et la lucidit mont soutenu avant et
pendant lexcution de ce travail. Je lui reconnais de mavoir form la recherche et davoir
veill en moi le got de lanalyse vibratoire applique la maintenance.
Merci Mme Guanglin Hou pour mavoir initi lutilisation du systme dacquisition
OROS. Elle a fait preuve dune grande disponibilit en acceptant de lire les preuves de ce
travail et dy apposer des remarques trs pertinentes.
Je remercierai ensuite tous les membres du Service de Gnie Mcanique de la Facult
Polytechnique de Mons (FPMs) pour cette sympathie spontane dont jai t couvert. Ma
gratitude sadressera particulirement M. Vergari pour son apport dans la conception du
dispositif exprimental.
Je remercie le corps enseignant de la FPMs avec qui il fut agrable dapprendre tout le
long de mon programme de DEA.
Toute ma gratitude la Coopration Technique Belge (CTB) qui ma donn lopportunit
de cette formation en maccordant la bourse dtude.
Que tous mes amis trouvent ici le rsultat de leur soutien. Je pense particulirement
Jean Tshimanga, Franois Ntambwe et Kimmy Spadon.
Merci enn aux autorits de lUniversit de Mbujimayi (U.M.) qui ont permis et ac-
cept mon dtachement. Je leur reconnais tout le sens de dvouement et de conception quili-
bre de lavenir de lUM.
iii
Table des matires
Rsum i
ii
Remerciements iii
0.1 La surveillance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.2 Le diagnostic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.3 Les techniques de diagnostic . . . . . . . . . . . . . . . . . . . . . . . . . 3
0.3.1 Les mthodes bases sur le modle du systme ou mthodes
internes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.3.2 Les mthodes bases sur lhistorique du systme ou mthodes
externes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.4 Cadre du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
I Fondements thoriques et analyse bibliographique 9
1 Les rseaux de neurones 10
1.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Le neurone biologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Prsentation du neurone biologique . . . . . . . . . . . . . . . . 10
1.2.2 Fonctionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
iv
TABLE DES MATIRES TABLE DES MATIRES
1.3 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Le rseau de neurones formels . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Modlisation mathmatique du rseau de neurones . . . . . . . . . . . 14
1.5.1 Le neurone simple . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Les fonctions dactivation . . . . . . . . . . . . . . . . . . . . . . 15
1.5.3 Le neurone entre vectorielle . . . . . . . . . . . . . . . . . . . 15
1.5.4 Couche de neurone . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.5 Erreur de sortie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Classication des rseaux de neurones . . . . . . . . . . . . . . . . . . . 19
1.6.1 Types dapprentissage . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.2 Types darchitecture . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7 Synthse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2 Extraction des indicateurs pour une analyse vibratoire 25
2.1 Des indicateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Notions de statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Indicateurs scalaires du domaine temporel . . . . . . . . . . . . . . . . 28
2.4 Les indicateurs spectraux . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5 Interprtation dun spectre de Fourier. Signatures vibratoires. . . . . . 32
2.6 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
II Aspects exprimentaux 35
3 Les essais 36
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2 Le dispositif exprimental . . . . . . . . . . . . . . . . . . . . . . . . . . 36
v
TABLE DES MATIRES TABLE DES MATIRES
3.3 Procdure des essais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3.1 Les prcautions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Codication des dfauts et des chiers . . . . . . . . . . . . . . . . . . 40
3.5 Prparation des donnes . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.5.1 Traitement dans le domaine temporel . . . . . . . . . . . . . . . 41
3.5.2 Traitement dans le domaine frquentiel . . . . . . . . . . . . . . 42
3.6 Effet de la variation de vitesse . . . . . . . . . . . . . . . . . . . . . . . . 44
3.7 Caractristiques spectrales des dfauts traits . . . . . . . . . . . . . . . 45
3.7.1 Le balourd . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.7.2 Le frottement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.7.3 Lovalisation de la bague externe du roulement . . . . . . . . . 48
3.7.4 Le dlignage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4 Premire phase exprimentale.
Simulation de deux dfauts : le balourd et le frottement 54
4.1 Construction du rseau de neurones . . . . . . . . . . . . . . . . . . . . 55
4.2 Le vecteur dentre. Domaine temporel . . . . . . . . . . . . . . . . . . 58
4.3 Conduite de lapprentissage et du test . . . . . . . . . . . . . . . . . . . 59
4.3.1 Bruitage des donnes . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.4 Rsultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4.1 Dtection des deux types de dfauts . . . . . . . . . . . . . . . . 61
4.4.2 Signal original non ltr 4 canaux . . . . . . . . . . . . . . . . . 62
4.4.3 Signal ltr 1 canal . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.4 Signal ltr 4 canaux . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
vi
TABLE DES MATIRES TABLE DES MATIRES
5 Rduction dimensionnelle de lespace des indicateurs 67
5.1 Rapport de dimensionnalit . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.2 Lanalyse en composantes principales (ACP) . . . . . . . . . . . . . . . 68
5.2.1 Normalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2.2 Saturations, communalits et variance explique . . . . . . . . . 70
5.2.3 Choix de la dimension effective . . . . . . . . . . . . . . . . . . . 71
5.3 Les rotations en analyse en composantes principales . . . . . . . . . . . 73
6 Seconde phase exprimentale.
Simulation de tous les dfauts. 74
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.2 Architecture du rseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.3 Les indicateurs du domaine temporel . . . . . . . . . . . . . . . . . . . 75
6.3.1 Construction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.3.2 Apprentissage et Analyse des performances . . . . . . . . . . . 77
6.4 Les indicateurs du domaine frquentiel . . . . . . . . . . . . . . . . . . 80
6.4.1 Construction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.4.2 Apprentissage et Analyse des performances . . . . . . . . . . . 80
6.5 Les indicteurs mixtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.5.1 Construction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.5.2 Apprentissage et Analyse des performances . . . . . . . . . . . 83
6.6 Synthse et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
vii
TABLE DES MATIRES TABLE DES MATIRES
7 Analyse de linuence des indicateurs. 88
7.1 Dmarche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
7.2 Analyse des indicateurs temporels . . . . . . . . . . . . . . . . . . . . . 89
7.2.1 Matrice des saturations . . . . . . . . . . . . . . . . . . . . . . . 89
7.2.2 Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2.3 Matrice de transformation . . . . . . . . . . . . . . . . . . . . . . 93
7.2.4 Examens des poids synaptiques . . . . . . . . . . . . . . . . . . 94
7.2.5 Vecteurs construits avec seuls les indicateurs pertinents . . . . . 98
7.3 Analyse des indicateurs frquentiels . . . . . . . . . . . . . . . . . . . . 101
7.4 Rsum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
A Le banc dessais 114
B Les dfauts traits exprimentalement sur le banc dessais 115
C Quelques spectres 119
D La mthode Varimax en Analyse en Composantes Principales 121
E Lalgorithme de rtropropagation du gradient 124
F Mthodes spectrales paramtriques 128
F.1 Les indicateurs bass sur les paramtres autorgressifs (AR) . . . . . . 129
G Statistiques dordre suprieur :Bispectre et Trispectre 131
viii
Introduction
Actuellement, dans beaucoup dapplications industrielles, on assiste une de-
mande croissante en matire de remplacement des politiques de maintenance cor-
rective systmatique par des stratgies de maintenance conditionnelle. Celle-ci est
base sur le principe que 99% des dfaillances mcaniques sont prcds dun signe
avant coureur [1]. Elle ncessite une surveillance continue ou priodique de cer-
tains indicateurs caractristiques de ltat de sant de la machine. Un indicateur est
un quanticateur plus ou moins labor issu dune grandeur dont lacquisition est
le plus souvent possible en fonctionnement. Son volution dans le temps doit tre
signicative de lapparition ou de laggravation dune dgradation ou dun dysfonc-
tionnement [3].
Pour mener bien une tche de maintenance conditionnelle dun systme il
sagira tout la fois :
1. dextraire des observations des objets tudis, des caractristiques qui soient
pertinentes pour la surveillance ;
2. dtablir des critres de positionnement des capteurs ou de slection de mesures
adquats pour la surveillance ;
3. de concevoir des stratgies de dcision pour la dtection des endommagements
et anomalies , et pour leur diagnostic.
A travers ceci, la dmarche qui se dgage est celle qui passe par deux tapes im-
portantes qui sont la surveillance et le diagnostic. Ces deux tapes peuvent tre pr-
cdes par la phase non moins importante de lacquisition de la signature de lqui-
pement [2].
1
0.1 La surveillance
0.1 La surveillance
La surveillance consiste prlever sur un quipement, de manire continue (on-
line) ou priodique (off-line), des mesures dindicateurs pertinents de lvolution de
la machine. Elle devra permettre, si lon dispose dune signature ou de niveau de
seuil, de dcider si les mesures acquises sont toujours dcrites convenablement par la
signature ou sil sest produit un changement signicatif de comportement. La nalit
dune surveillance est lmission dalarme partir dvnements. Ces alarmes sont
censes provoquer une raction humaine ou automatique.
Les indicateurs ainsi surveills peuvent provenir de diffrents types danalyses :
1. surveillance tribologique par analyse physico-chimique des lubriants : taux de
concentration dans le lubriant de particules mtalliques et leur spectre dimen-
sionnel ;
2. thermographie : par exemple la surveillance de la temprature dun palier ;
3. volution du rendement mcanique, lectrique ou thermodynamique de la ma-
chine ;
4. mesures acoustiques et vibratoires.
Il est trs important davoir lesprit quun systme de surveillance peu per-
formant, qui provoque de fausses alarmes ou tarde dclencher les alertes, peut
conduire une politique de maintenance conditionnelle qui se rvle plus coteuse
quune politique corrective ou prventive systmatique.
0.2 Le diagnostic
Un systme complet de maintenance conditionnelle doit permettre non seule-
ment de donner une rponse en tout-ou-rien (le systme a ou na pas chang) grce
aux alarmes, mais aussi de localiser le changement dtect, et de procder au diag-
nostic proprement dit.
Le diagnostic industriel est dni selon la norme internationale comme liden-
tication de la cause probable de la (ou des) dfaillance(s) laide dun raisonne-
ment logique fond sur un ensemble dinformations provenant dune inspection,
Bovic Kilundu YEbondo 2 Travail de DEA, Mai 2004
0.3 Les techniques de diagnostic
dun contrle ou dun test. Il ressort de cette dnition les deux tches principales
du diagnostic, savoir [8] :
observer les symptmes de la dfaillance,
identier la cause de la dfaillance laide dun raisonnement logique fond
sur des observations.
Le problme du diagnostic peut se poser en ces termes :
tant donns lespace X des paramtres inconnus x
i
(toutes les causes) et lespace Y
des grandeurs observables y
i
(tous les symptmes), dterminer la solution x
i
de y
i
connaissant la fonction F :
F(x
i
) = y
i
.
Le diagnostic consiste donc rpondre la question : quel(s) est (sont) les para-
mtre(s) x responsable(s) du dclenchement de lalarme globale ? La solution nest en
ralit pas aussi aise que peut le laisser supposer la forme de lquation car, dune
part il faut dnir des modles pour chacune des n causes x
i
, pour chacun des symp-
tmes y
i
comme pour chacune des fonctions F
i
et dautre part il faut que le problme
soit bien pos.
Pour arriver rsoudre ce problme, de nombreuses mthodes ont t dvelop-
pes, parmi lesquelles on distingue les mthodes internes et les mthodes externes.
0.3 Les techniques de diagnostic
Les mthodes de diagnostic se diffrent non seulement dans la manire dont les
donnes du systme sont utilises, mais aussi dans la forme requise pour le traite-
ment de ces donnes. Nous allons prsenter ici une classication base sur la forme
des donnes. On distingue les techniques bases sur le modle du systme ( mthodes
internes) de celles qui reposent sur lhistorique du systme ( mthodes externes) [9].
Bovic Kilundu YEbondo 3 Travail de DEA, Mai 2004
0.3 Les techniques de diagnostic
0.3.1 Les mthodes bases sur le modle du systme ou mthodes
internes
La source de connaissance dans ces mthodes est la comprhension profonde
du systme. Le principe est de dnir un ensemble de relations qui dcrivent les
interactions entre les diffrentes variables du systme. Dans cette classe de mthodes
on peut distinguer deux catgories :
les mthodes qualitatives
les mthodes quantitatives.
Les mthodes qualitatives
La stratgie employe est base sur la notion de causalit dans le comporte-
ment du systme. Les plus utilises de ces mthodes sont les arbres de dfaillance
et la mthode AMDEC (Analyse des Modes des Dfaillances, de leurs Effets et de
leur Criticit). La mthode de larbre de dfaillance est une mthode avec laquelle on
identie toutes les combinaisons possibles dvnements qui entranent la ralisation
dun vnement unique indsirable. Elle utilise une chane qui remonte jusqu un
vnement primaire considr comme cause de la dviation observe dans le com-
portement du systme [7]. LAMDEC est une technique dductive et qualitative avec
laquelle les effets (consquences) des causes de dfaillances des composants lmen-
taires sont systmatiquement identis [8].
Cependant une srieuse limitation lutilisation de ces mthodes est la gnra-
tion dun grand nombre dhypothses, ce qui rend le processus de dcision incertain.
Ceci est d aux ambiguts qualitatives quimpliquent ces mthodes.
Les mthodes quantitatives
Ces mthodes reposent sur les relations mathmatiques qui existent entre les
variables et que lon essaie de modliser de la faon la plus proche possible du pro-
cessus rel. Les modles sont dvelopps soit en utilisant les principes fondamentaux
qui rgissent la physique du systme soit en utilisant les donnes dentre et de sortie
Bovic Kilundu YEbondo 4 Travail de DEA, Mai 2004
0.3 Les techniques de diagnostic
du processus. Ces modles peuvent tre dynamiques, statiques, linaires ou non li-
naires. Parmi ces mthodes, nous citerons la mthode du modle, les mthodes par
identication des paramtres, les mthodes par estimation du vecteur dtat et les
mthodes par modlisation des signatures [8].
0.3.2 Les mthodes bases sur lhistorique du systme ou mthodes
externes
Quand aucun modle nest disponible, les techniques bases sur les modles
du systme sont inapplicables et on met en oeuvre des techniques dites externes. La
seule connaissance repose alors sur lexpertise humaine conforte par un solide re-
tour dexprience. Dans cette catgorie, on peut aussi distinguer des mthodes quan-
titatives et des mthodes qualitatives.
Les mthodes qualitatives
Il existe :
1. les mthodes bases sur des rgles : Cest le cas des systmes experts. Lhis-
torique du systme est enregistre sous forme de couple (antcdent, cons-
quence) li une dfaillance connue. Ceci exige une correspondance explicite
des symptmes connus aux causes primaires.
2. lanalyse qualitative des tendances : Elle utilise la prsence dinformation sur
la tendance dvolution dans une mesure donne. Elle a deux tapes fonda-
mentales : lidentication des tendances dans les mesures et linterprtation des
tendances en terme de scnarios de dfaillances. La procdure didentication
est donc tenue tre robuste vis--vis des variations du signal dues aux bruits
et de ne capturer que les grosses variations [25].
Les mthodes quantitatives
Les plus connues de ces mthodes sont les techniques de reconnaissance des
formes, les techniques statistiques et les techniques bases sur lintelligence arti-
Bovic Kilundu YEbondo 5 Travail de DEA, Mai 2004
0.4 Cadre du travail
cielle. Ces dernires constituent des outils privilgis pour la catgorisation de si-
gnaux issus du systme surveiller en fonctionnement, cest--dire laffectation de la
catgorie de dfauts ces signaux [10].
Les techniques statistiques, notamment la statistique multivariable avec lana-
lyse en composantes principales, peuvent constituer un prcieux outil dans le proces-
sus de diagnostic des dfaillances. On peut leur associer des techniques de classica-
tion automatiques telles que les rseaux de neurones. Lide la base de lutilisation
des variables statistiques est le fait que lvolution de ltat dune machine ou dun
quipement nest pas dterministe. Le systme tant sous inuence des facteurs ala-
toires, il est logique de lui formuler une approche probabiliste. Ainsi donc, les sries
temporelles des mesures seront caractrises par des distributions de probabilit cor-
respondant ltat sain ou un tat de dfaillance.
0.4 Cadre du travail
Ce propos adresse une mthode automatique de diagnostic externe : les rseaux
de neurones. Il en explore lutilisabilit dans le cas des dfauts concourants et sef-
force de dgager pour une telle application les indicateurs les plus pertinents. Il se
base sur les donnes danalyse vibratoire rcoltes sur un banc dessai simulateur de
dfauts mcaniques de machines tournantes, chaque dfaut ayant plusieurs niveaux
dexpression.
Le travail comprend deux grandes parties : une thorique et bibliographique,
dune part et une pratique exprimentale, dautre part. Les 7 chapitres suivants sont
repartis entre les deux parties en dehors de lintroduction et la conclusion :
Chapitre 1 : Ce chapitre introduit la notion de rseaux de neurones. Il en retrace le
contenu historique et en prsente la modlisation mathmatique. La question
des architectures et des algorithmes dapprentissage des rseaux de neurones y
est aborde de manire succincte travers une brve classication des rseaux
de neurones.
Chapitre 2 : Une revue de la littrature est faite concernant les diffrentes possibi-
lits dextraction des indicateurs issus dune analyse vibratoire et destins
Bovic Kilundu YEbondo 6 Travail de DEA, Mai 2004
0.4 Cadre du travail
la construction du vecteur dentre du rseau de neurones. Plusieurs possibi-
lits se rvlent, notamment les indicateurs statistiques du domaine temporel
les spectres frquentiels, les statistiques dordre suprieur et lanalyse temps-
frquence.
Chapitre 3 : Ce chapitre introduit les aspects exprimentaux du travail. Les diffrents
dfauts simuls sont prsents ainsi que leur nomenclature. On y trouve une
description du dispositif exprimental reprsentant le banc dessais simulateur
de dfauts.
Chapitre 4 : Ici est dcrite notre premire phase exprimentale au cours de laquelle
nous navons simul que deux dfauts : le balourd et le frottement. Cette phase
avait pour objectif lacquisition dune vision premire en ce qui concerne la
conception du rseau de neurones et la construction des espaces dindicateurs.
Les rsultats obtenus dans cette phase ont largement inuenc la seconde phase
en termes darchitecture du rseau de neurones et de la prparation des don-
nes.
Chapitre 5 : La rduction dimensionnelle de lespace dindicateurs est un des as-
pects introduits dans ltape de la prparation des donnes. Lanalyse en com-
posantes principales est applique lespace des indicateurs tant temporels que
frquentiels. Des notions permettant danalyser linuence des indicateurs sur
les performances de classication sont introduites au cours de ce chapitre, en
particulier les saturations et les communalits.
Chapitre 6 : Une tude de plusieurs types de dfauts est mene. Le balourd, le frot-
tement, lovalisation de la bague externe de roulement et le dsalignement sont
simuls leurs diffrents niveaux dexpression. La particularit dans larchitec-
ture du rseau de neurones, dans cette phase, tient du fait quil est dispos une
sortie pour chaque niveau de dfaut et non une sortie par dfaut comme dans
la premire phase. Ceci a lavantage de permettre lutilisation des fonctions sig-
modes la sortie et dy imposer seules les deux valeurs 1 et 0. Les diffrentes
sorties correspondant un dfaut donn sont ensuite passs une fonction de
comptition pour assigner la valeur 1 seulement la sortie qui prsente la plus
grande valeur.
Chapitre 7 : Dans ce chapitre, en nous basant sur les matrices de saturation, les com-
munalits, les matrices de transfert et les poids synaptiques, nous discutons
Bovic Kilundu YEbondo 7 Travail de DEA, Mai 2004
0.4 Cadre du travail
sur les indicateurs pour dgager ceux dentre eux qui semblent avoir un grand
contenu discriminatoire et qui inuencent ainsi de faon prpondrante la clas-
sication.
Bovic Kilundu YEbondo 8 Travail de DEA, Mai 2004
Premire partie
Fondements thoriques et analyse
bibliographique
9
Chapitre 1
Les rseaux de neurones
1.1 Gnralits
La technique des rseaux de neurones applique aux problmes de diagnostic
industriel a attir beaucoup dattention ces dernires annes. La littrature abonde
sur son application dans ce domaine et des tudes ont montr que les rseaux de
neurones articiels sont une bonne technique de classication [25].
Les rseaux de neurones articiels sont un modle du neurone biologique dont
il ne retiennent quune vision fort simplie.
1.2 Le neurone biologique
1.2.1 Prsentation du neurone biologique
Le cerveau humain contient trois couches successives :
le cerveau reptilien, sige des rexes instinctifs ;
lhippocampe, sige de lmotivit et de la sensibilit ;
le cortex, spcique aux mammifres et sige du raisonnement et de la pen-
se.
Dans chacune de ces couches on trouve deux types de cellules : les gliales et les
neurones [8].
Tous les neurones sont constitus de 3 parties (gure 1.1) :
10
1.2 Le neurone biologique
axone
Corps cellulaire
dendrites
Synapses
Noyau
FIG. 1.1 Le neurone biologique
le corps proprement dit de la cellule o se situe le mcanisme de dclenche-
ment du neurone ;
son prolongement laxone (qui peut atteindre plusieurs dizaines de centi-
mtres) le long duquel voyagent les impulsions nerveuses diriges vers la
priphrie et de minces ramications ;
les dendrites, qui reoivent des informations (impulsions nerveuses) des autres
neurones et les apportent vers le corps cellulaire.
Le corps cellulaire, appel aussi soma, constitue llment principal du neurone.
Il contient le noyau cellulaire renfermant lui-mme le gnome, cest dire linforma-
tion gntique de lorganisme dont le neurone est issu.
Laxone est le prolongement cellulaire principal et cest grce lui que le neu-
rone va transmettre les informations. A son extrmit se trouve larborisation termi-
nale o se trouve un nombre plus ou moins important de terminaisons synaptiques
et qui est le ple metteur de la cellule.
Les dendrites reprsentent le deuxime type de prolongement cellulaire et se
trouvent en grande quantit autour du soma, cest pourquoi on parle souvent dar-
borisation dendritique. Les dendrites constituent le ple rcepteur de la cellule et
Bovic Kilundu YEbondo 11 Travail de DEA, Mai 2004
1.2 Le neurone biologique
cest cet endroit que vont se faire les connexions avec les autres neurones.
Les neurones sont interconnects entre eux par des synapses qui sont des jonc-
tions entre deux neurones.
1.2.2 Fonctionnement
Les axones sont recouverts de cellules, dites cellules de Schwann. Lorsque ces
cellules senroulent autour de laxone, il se forme un revtement appel gain myli-
nique qui prsente des points dcouverts ou noeuds de Ranvier.
Limpulsion nerveuse voyage par saut dun noeud de Ranvier un autre une
vitesse denviron 200 m/s. Quand laxone dun neurone rencontre un autre neurone,
le contact stablit par lintermdiaire du synapse. Le synapse est une sorte de bulbe.
Entre la surface du bulbe (bouton terminal) et celle du nouveau neurone, se trouve un
espace dit espace synaptique. Pour que limpulsion nerveuse qui est un signal de na-
ture lectrique, puisse franchir cet espace, des substances lectrochimiques entre en
action, les neurotransmetteurs. Le processus de communication entre les neurones se
fait donc par voie lectrochimique aux niveaux des synapses par des neurotransmet-
teurs. Laction des neurotransmetteurs est extrmement brve pour empcher que
la stimulation nerveuse ne se prolonge au-del du temps ncessaire au transfert de
limpulsion nerveuse.
De nombreuses thories dcrivent les mcanismes dexcitation et de rponse
des neurones. La thorie lectrique sur laquelle se base les rseaux de neurones arti-
ciels considre la jonction synaptique comme le lieu o le neurone peroit un stimulus
par voie lectrochimique. La membrane synaptique lorsquelle ne reoit pas dexci-
tation, est polaris une tension denvirons 60 mV. A lapparition dexcitations qui
se traduisent au niveau du noyau cellulaire par une tension suprieur un seuil, le
neurone est alors activ et cela dclenche un processus de dpolarisation : le neurone
met sur laxone une tension positive denvirons +60 mV en se comportant comme
un systme non linaire.
Cest sur base du neurone biologique que les pres du calcul connexionniste ont
conu le neurone articiel, voyons-en dabord lhistorique.
Bovic Kilundu YEbondo 12 Travail de DEA, Mai 2004
1.3 Historique
1.3 Historique
Dans la priode de 1940 1956, les sciences et techniques de la cognition slabo-
rrent peu peu et lancienne cyberntique donna naissance aux sciences cognitives.
Lapparition des rseaux de neurones articiels sinscrit compltement dans
cette gense des sciences cognitives, et les origines dans la volont de modliser, de
faon mathmatique, les neurones biologiques.
Le premier modle fut propos par Mac Culloch et Pitts en 1943 : cest le neu-
rone de Mc Cullosch-Pitts ou automate seuil [28]. Quelques annes aprs, en 1949, le
neurophysicien Hebb propose une formulation du mcanisme dapprentissage sous
forme dune rgle de modication des connexions synaptiques (rgle de Hebb). Cette
rgle, base sur des donnes biologiques, modlise le fait que si des neurones, de
part et dautre dun synapse, sont activs de faon synchrone et rpte, la force de
connexion synaptique va aller croissant.
Les rsultats de ces travaux ont t lorigine de modles connexionnistes de
plus en plus labors. En 1958 apparat, proprement dit, le premier rseau de neu-
rones articiels grce aux travaux de Frank Rosenblatt qui conoit le Perceptron. Le
Perceptron modlise les facults de reconnaissance de forme du systme visuel. Il
possde une couche de neurones dentre ("perceptive") ainsi quune couche de neu-
rones de sortie ("dcisionnelle"). En parallle vers les annes 60 Widrow met au point
lAdaline (Adaptative Linear Neuron) et le Madaline. Cette tape sera suivie dune
priode morte par suite des travaux de Minsky et Papert qui ont montr que le mo-
dle du Perceptron ne prsentait aucun intrt cause de son incapacit de rsoudre
le problme du ou exclusif.
Il faudra attendre les travaux des chercheurs comme Hopeld pour revoir un
regain dintrt aux rseaux de neurones.
1.4 Le rseau de neurones formels
Le neurone articiel, encore appel neurode, noeud ou unit neuronale, est une
modlisation mathmatique du neurone biologique. Il en reprend les grands prin-
Bovic Kilundu YEbondo 13 Travail de DEA, Mai 2004
1.5 Modlisation mathmatique du rseau de neurones
cipes de fonctionnement, notamment la sommation des entres. Les rseaux de neu-
rones articiels sont inspirs du systme nerveux. Ils sont constitus de neurones
interconnects entre eux.
Chaque neurone reoit en entre des informations venant de plusieurs neurones
travers les connexions synaptiques. Chacune de ces entres est pondre par une
valeur w, dite poids synaptique. Les valeurs ainsi pondres sont ensuite sommes
avant de passer en argument une fonction f appele fonction dactivation ou fonc-
tion de transfert. Les valeurs des poids synaptiques sont dtermines a la suite dun
processus dapprentissage au cours duquel le neurone ajuste ses forces de connexion
an dobtenir une sortie dsire.
1.5 Modlisation mathmatique du rseau de neurones
Dans cette section nous nous proposons de prsenter la modlisation du neu-
rone et celle des rseaux de neurones articiels. Nous noterons les grandeurs vecto-
rielles et les matrices par des lettres en gras et les grandeurs scalaires par des lettres
en italiques.
1.5.1 Le neurone simple
Par neurone simple nous entendons un neurone auquel nest transmis en entre
quune seule valeur scalaire p [29]. Cette valeur est multiplie dans la connexion par
f
f
a
a
p p
w n w n
1
b
a =f(wp+b)
a =f(wp)
FIG. 1.2 Le neurone formel simple sans biais ( gauche) et avec biais ( droite)
Bovic Kilundu YEbondo 14 Travail de DEA, Mai 2004
1.5 Modlisation mathmatique du rseau de neurones
le poids w, pour former le produit wp qui est aussi un scalaire. Le neurone peut avoir
ou non un biais b (gure 1.2). Sil y a un biais, celui-ci sera somm la valeur pondre
wp avant de passer en argument au niveau de la fonction dactivation f. Largument
de f est n = wp + b et la valeur a que retourne la fonction f est la sortie du neurone.
On aura donc
a=f(wp+b) (1.1)
Le biais b peut tre vu comme un dcalage de la fonction f. Il peut tout aussi bien
tre apprhend comme un poids synaptique qui sapplique une entre unitaire.
Les valeurs w et b sont des paramtres scalaires ajustables de ce neurone simple.
Lide centrale est de faire prsenter au neurone un comportement dsir par le seul
ajustement des paramtres wet b. On peut ainsi donc entraner un rseau de plusieurs
neurones interconnects excuter une tche particulire en ajustant ces paramtres
ou en laissant le rseau les ajuster seul.
1.5.2 Les fonctions dactivation
Les fonctions dactivation sont de nature trs varies : elle peuvent tre dter-
ministes, continues, discontinues ou alatoires [29]. Les fonctions les plus utilises
sont :
1. la fonction seuil de Heaviside ;
2. la fonction sigmode de type Log;
3. la fonction sigmode de type tangente hyperbolique ;
4. la fonction linaire sans saturation ;
5. la fonction linaire seuil ou saturation.
1.5.3 Le neurone entre vectorielle
Contrairement au neurone simple prsent prcdemment, lentre du neurone
peut tre un vecteur de dimension R (gure 1.5).
p = {p
1
, p
2
, , p
R
} (1.2)
Bovic Kilundu YEbondo 15 Travail de DEA, Mai 2004
1.5 Modlisation mathmatique du rseau de neurones
10 8 6 4 2 0 2 4 6 8 10
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Fonction seuil de Heaviside
x
y
FIG. 1.3 Fonction seuil de Heaviside
10 8 6 4 2 0 2 4 6 8 10
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
y = logsig(x)
x
y
10 8 6 4 2 0 2 4 6 8 10
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
y=tansig(x)
y
x
FIG. 1.4 Fonctions sigmode log et tan
Bovic Kilundu YEbondo 16 Travail de DEA, Mai 2004
1.5 Modlisation mathmatique du rseau de neurones
Chaque entre individuelle p
i
est multiplie par le poids w
1,i
, lindice 1 dans le poids
indiquant le neurone auquel sont transmises ces entres. La somme des valeurs pon-
dres est le produit scalaire des vecteurs W et p.
Avec W donn par
W = {w
1,1
, w
1,2
, , w
1,R
} (1.3)
Largument n de la fonction dactivation f est
n = w
1,1
p
1
+ w
1,2
p
2
+ + w
1,R
p
R
+ b (1.4)
ou vectoriellement
n = Wp + b (1.5)
et la sortie du neurone a sera videmment calcule par a = f(n).
a=f(n)
w

2
w

4
p
1
p
2
p
3
p
4
w
3
p
R
w
R
n
a
FIG. 1.5 Neurone entre vectorielle
1.5.4 Couche de neurone
Nous inspirant du neurone prsent ci-haut, nous pouvons dnir une couche
comme lespace o lon trouve les poids synaptiques et le biais, o seffectue les
Bovic Kilundu YEbondo 17 Travail de DEA, Mai 2004
1.5 Modlisation mathmatique du rseau de neurones
oprations daddition et de multiplication, et o nalement la fonction dactivation
prend en argument la somme des entres pondres augmente du biais. Les entres
ne sont pas comptes dans une couche.
En gnralisant larchitecture par combinaison de plusieurs neurones dans une
couche et en considrant plusieurs couches disposes les unes aprs les autres, nous
obtenons ce quon appelle rseau de neurones. Une couche sera donc caractrise
par le nombre S de ses neurones, un vecteur biais b de dimension S, une matrice
W des poids synaptiques et une srie de S fonctions dactivation identiques ou non
pour chaque neurone. La matrice W est une matrice de dimension S R, R tant le
nombre dentres pour la couche considre ou la dimension du vecteur dentre p.
W =
_

_
w
1,1
w
1,2
w
1,R
w
2,1
w
2,2
w
2,R
.
.
.
.
.
.
.
.
.
w
S,1
w
S,2
w
S,R
_

_
(1.6)
Le premier indice (indice de ligne) des lments de la matrice W indique le neu-
rone auquel le synapse aboutit, et lindice de colonne lorigine du synapse. Ainsi, par
exemple, w
1,2
est la force du signal provenant du second lment dentre et destin
au premier neurone. Il faudra faire une distinction entre la matrice de poids connects
aux entres et les matrices de poids de connexion entre couches. Pour cela convenons
dappeler IW (Input weights) la matrice de poids dentre et LW
j,i
(Layer weights),
la matrice de connexion entre la couche j et la couche i. La couche de depart est i et
celle de destination j.
La gure 1.6 illustre un rseau de neurones trois couches et S
i
neurones
dans la couche i. Dans cet exemple, toutes les fonctions dactivation dune couche
sont identiques. La sortie a
i
dune couche i est un vecteur dont les composantes sont
a
i
=
_
a
i
1
, a
i
2
, , a
i
S
i
_
(1.7)
1.5.5 Erreur de sortie
Dune manire gnrale, la sortie a du rseau de neurones est compare une
sortie attendue t appele "cible". Lcart entre la sortie obtenue et la sortie attendue est
Bovic Kilundu YEbondo 18 Travail de DEA, Mai 2004
1.6 Classication des rseaux de neurones
f
1
f
1
f
1
f
3
f
3
f
2
f
3
f
2
f
2
1
1
1
1
1
1
1
1
1
b
1
b
1
b
1
p
1
p
2
p
R
Sortie1
Sortie2
Sortie3
Couche 1 Couche 3 Couche 2
Sortie
Entre
s
1
neurones s
2
neurones
s
3
neurones
FIG. 1.6 Rseau de neurones multicouche
reprsente par une fonction derreur dont la dnition dpend du type de problme.
Lerreur est fonction des valeurs des poids synaptiques et des biais. La fonction der-
reur la plus utilise est la "moyenne des carrs de l erreur" (mse : mean squared
error).
Si lon dispose de m exemples de vecteurs dentre x
q
(q = 1 m) auxquels on
associe m vecteurs de sortie attendus t
q
(q = 1 m), la fonction derreur "mse" est
dnie comme suit :
mse(W) =
1
m
m

q=1
(t
q
a
q
)
2
(1.8)
1.6 Classication des rseaux de neurones
Il serait prtentieux pour nous de vouloir dresser une classication complte
des rseaux de neurones, cela dpasserait le cadre de ce travail. Il existe diffrentes
faons de classer les rseaux de neurones selon les critres choisis, tels que : type
dapprentissage, architecture des connexions, forme pour traiter et reprsenter les
donnes, etc. Pour notre part, nous estimons quune brve classication simpose
Bovic Kilundu YEbondo 19 Travail de DEA, Mai 2004
1.6 Classication des rseaux de neurones
pour mieux comprendre les avantages et les inconvnients dun choix darchitecture
ou dalgorithme par rapport un autre.
1.6.1 Types dapprentissage
En fonction des inuences venant des entres et leurs poids respectifs, la fonc-
tion de transfert dun neurone en dtermine lactivation. Les changements apports
aux poids synaptiques de la structure du rseau sont responsables des changements
de comportement. Le rseau peut ainsi tre capable dassocier des stimulis aux r-
ponses an de bien rsoudre un problme. La mthode utilise pour modier le
comportement dun rseau de neurones est la rgle dapprentissage. Les rseaux de
neurones ont donc la capacit dapprendre des rgles partir des exemples, et sur
base des rgles apprises, certains rseaux peuvent faire une gnralisation. La gn-
ralisation est la capacit du rseau ragir correctement lorsquon lui prsente des
entres non vues au cours des sances dapprentissage. Lapprentissage est un pro-
cessus itratif au cours duquel les poids sont modis plusieurs fois avant datteindre
leurs valeurs nales [4].
On distingue trois types principaux dapprentissage :
Apprentissage supervis : lutilisateur dispose dun comportement de rfrence pr-
cis quil dsire faire apprendre au rseau. Les poids synaptiques sont dtermi-
ns partir dexemples tiquets de formes auquel ont t associes des r-
ponses dsires galement tiquetes (cibles). Pendant lapprentissage les poids
sont ajusts dans le sens de minimiser lcart entre les cibles et les sorties calcu-
les. Ce processus peut prendre un grand nombre ditrations avant de conver-
ger, parce que certaines rgles dapprentissage (telle que la rtropropagation
du gradient) peuvent converger vers des minima locaux sur la surface derreur
[11] (gure1.7).
Apprentissage semi-supervis : lutilisateur ne dispose que des indications impr-
cises (par exemple, chec/succs du rseau) sur le comportement nal dsir.
Ces techniques dapprentissage sont aussi appeles apprentissage par renforce-
ment (reinforcement learning).
Bovic Kilundu YEbondo 20 Travail de DEA, Mai 2004
1.6 Classication des rseaux de neurones
W1 et W2 : minima locaux
W*:minimum absolu
Erreur(W )
W
1
W*
W
2 Matrice poids W
FIG. 1.7 La surface "Erreur" en fonction de la matrice des poids
Apprentissage non-supervis : ce processus dapprentissage est beaucoup utilis
dans des problmes de classication o les cibles sont non connues a priori. Le
systme essaie alors de gnrer un ensemble unique de poids pour une classe
particulire dobjets. Lobjectif de lapprentissage non-supervis est dajuster
les poids de manire autonome jusqu lquilibre cest--dire jusqu ce quau-
cune modication des poids ne soit ncessaire. Lapprentissage non-supervis
associe donc une classe dobjets une classe de poids. Les comportements r-
sultant de ces apprentissages sont appels auto-organisation (Self-Organization).
Les exemples typiques des rseaux de neurones apprentissage non-supervis
sont les rseaux de Hopeld, les mmoires associatives et les rseaux cogni-
tifs [5].
Gnralement, lapprentissage dun rseau de neurones demande une grande
quantit de donnes que lon regroupe dans un ensemble dexemples dapprentissage. Il
est souvent utile de disposer dautres ensembles de donnes pour tester la validit du
comportement appris par le rseau neuronal. Ces ensembles sont appels ensembles
dexemples de test ou de gnralisation. Cest surtout les capacits de gnralisation dun
rseau de neurones qui dterminent son efcacit en pratique.
Il peut arriver quun rseau de neurones se spcialise trop un ensemble de
donnes dapprentissage. Dans ce cas on parle dapprentissage par coeur ou surap-
Bovic Kilundu YEbondo 21 Travail de DEA, Mai 2004
1.6 Classication des rseaux de neurones
prentissage (overtting), qui a pour consquence une mauvaise gnralisation. Pour
viter ce type de problme, une faon pratique consiste partitionner les donnes en
trois ensembles : le premier pour lapprentissage, le second pour la validation et le
troisime pour le test. Il arrive souvent que lon ne constitue que deux ensembles : ap-
prentissage et test. Lensemble de test permet de contrler lerreur de gnralisation
et de dterminer le bon moment pour arrter le processus dapprentissage. La gure
1.8 illustre lvolution de lerreur en fonction du nombre ditrations ou poques,
au-dl dune certaine limite lerreur de gnralisation se met crotre.
Le phnomne de surapprentissage peut aussi tre vit en utilisant lors de len-
tranement des sries de donnes diffremment bruites. De cette manire, le risque
de mmorisation des exemples par le rseau de neurones est presque nul.
Point optimum
test
apprentissage
Nombre dpoques
Erreur de sortie
FIG. 1.8 Erreur dans lensemble dapprentissage et de test
Selon la manire dont les donnes dapprentissage sont prsentes au rseau de
neurones on peut parler de :
Apprentissage instantan au cours duquel lensemble des donnes dapprentis-
sage est analys en une seule fois et les poids synaptiques ajusts dun seul
Bovic Kilundu YEbondo 22 Travail de DEA, Mai 2004
1.6 Classication des rseaux de neurones
coup. On ne fait donc quun seul passage sur les donnes, ce mode est aussi
appel one-shot-learning et nest pas trs utilis.
Apprentissage incrmental ou continu : les poids du rseau sont ajusts chaque
passage sur une entre cest--dire que lalgorithme prend en compte conti-
nuellement les exemples qui lui arrivent (continuous /on-line learning). Les
exemples sont alors prsents squentiellement [29].
Apprentissage par lots (paquets) : dans ce type dapprentissage les poids synap-
tiques ne sont ajusts quaprs prsentation de tous les exemples. On effectue
souvent plusieurs prsentations de faon optimiser les poids et rduire
lerreur en sortie. Chaque prsentation de lensemble complet des donnes
dapprentissage est appele poque (epoch) [4]. Lordre des exemples de len-
semble dapprentissage peut aussi tre manipul, ce qui peut avoir une in-
uence sur lvolution de lapprentissage. Ce type dapprentissage est le plus
utilis et est aussi connu sous le nom de batch training ou batch learning.
Les rgles dapprentissage les plus utilises sont ( [5] [4] [8]) :
les mthodes de correction de lerreur, telles que la descente de gradient sur
une surface : Adaline, Madaline, Rtro-propagation du gradient, Cascade-
Correlation, CMAC (Cerebellar model articulation controller) ;
les mthodes dapprentissage par renforcement ;
les mthodes dapprentissage par comptition ou par auto-organisation : Ko-
honen feature Map, ART;
les mthodes dapprentissage par cration de prototypes ou de noyaux : RBF;
les mthodes dapprentissage bases sur des mmoires associatives (auto-
associatives ou htro-associatives) : modles de Hopeld, ... ;
les mthodes dapprentissage temporel (rseaux rcurrents).
Ces mthodes ont largement t utilises dans la dtection des dfauts mca-
niques.
1.6.2 Types darchitecture
Outre le fait que les units neuronales peuvent diffrer selon le type de fonction
dactivation, leur mode de connexion, leur architecture peuvent varier.
Les architectures les plus importantes sont :
Bovic Kilundu YEbondo 23 Travail de DEA, Mai 2004
1.7 Synthse
rseaux seule couche : les neurones sont tous sur le mme niveau et direc-
tement connects aux entres. Les connexions latrales peuvent y tre aussi
organises. Un exemple typique est le Kohonen Feature Map.
rseaux couches unidirectionnels (feedforward) : On y a plusieurs couches,
chaque unit dune couche reoit ses entres de la couche prcdente et en-
voie ses sorties vers la couche suivante ;
rseaux rcurrents : ils peuvent avoir une ou plusieurs couches avec la par-
ticularit de possibilit de connexion au sein dune couche ou en boucle vers
une couche infrieure. Ce type darchitecture permet la modlisation des com-
portements dynamiques. Le rseau de Hopeld est un exemple de rseau r-
current.
1.7 Synthse
Nous avons, dans ce chapitre, touch lhistorique, aux types et aux architec-
tures des rseaux de neurones articiels aprs en avoir montr le lien avec le rseau
de neurones biologiques. Pour une application pratique, il est toujours invitable
de se questionner sur ce que doit tre lalimentation du rseau de neurones pour
sassurer des rsultats satisfaisants. Dans notre cas o les donnes danalyse vibra-
toires sont utilises pour la classication, il faut oprer un choix sur les indicateurs
fournir au rseau. Le chapitre qui suit discute des diffrentes manires possibles de
construire les entres dun rseau de neurones partir de lanalyse vibratoire.
Bovic Kilundu YEbondo 24 Travail de DEA, Mai 2004
Chapitre 2
Extraction des indicateurs pour une
analyse vibratoire
Plusieurs travaux sur la surveillance conditionnelle des machines, ont utilis
lanalyse vibratoire combine aux rseaux de neurones. Les machines tournantes
nont pas t les seules tre concernes. Des applications telles que la surveillance
des transformateurs lectriques ont t abordes dans [15]. Un domaine qui a t suf-
samment explor est celui de la surveillance de lusure doutils en usinage et en
formage ( [16] [17] [20]). Les travaux comme [21] et [23] ont plutt utilis la force
de coupe, mais dans tous les cas dautres indicateurs devaient tre fournis pour ca-
ractriser compltement une condition de coupe : les vitesses davance et de coupe,
la gomtrie de la pice, lmission acoustique, les proprits des matriaux (outil,
lubrication, pice), ...
Une question majeure, parce delle dpendent la qualit et les performances
dun systme daide au diagnostic (rseau de neurones par exemple), est de choisir
les indicateurs utiliser qui soient trs reprsentatifs de lvolution de la machine.
Il nest gnralement pas possible de faire une classication base sur un chan-
tillon unique de donnes vibratoires.
25
2.1 Des indicateurs
2.1 Des indicateurs
Lextraction des indicateurs peut tre vue comme un processus qui consiste
ne retenir que les informations discriminatoires entre classes et rduire sensible-
ment les informations communes dans un ensemble de mesures faites sur plusieurs
classes [25]. Les indicateurs dvelopps dans cette philosophie pourront bien mon-
trer quune mesure est tout fait reprsentative dune classe donne plutt que dune
autre.
Les donnes vibratoires sont les plus utilises dans la surveillance des machines
cause de leur sensibilit et de leur capacit prdire assez prcocement le dvelop-
pement des dfauts ( [6] [22]). Compares aux autres techniques, elles sont, selon [12],
les seules donner la mesure la plus pertinente de ltat dune machine tournante.
Le choix des indicateurs est une phase cruciale dont dpend de manire non
ngligeable la phase de classication par le rseau de neurones [24]. Comme nous
lavons dit plus haut, les indicateurs doivent sufsamment tre reprsentatifs, dans
leur volution, de ltat de la machine. Ils devront, non seulement, tre en mesure de
provoquer une alarme lors de linitialisation dun dfaut, mais aussi de permettre un
diagnostic assez prcis de la machine.
Dans lutilisation des rseaux de neurones pour le diagnostic des dfauts bas
sur lanalyse vibratoire, on a le choix entre les indicateurs scalaires dans le domaine
temporel et indicateurs spectraux dans le domaine frquentiel.
Une forte prfrence penche du ct de lanalyse dans le domaine frquentiel o
les dfauts sont rvls mme quand les niveaux vibratoires sont faibles. Lavantage
de ceci est que les dfauts peuvent tre dtects ds leur phase dinitialisation et ainsi
tre surveills pendant leur volution. Cette corrlation mne une meilleure analyse
que lon ne peut faire dans le domaine temporel.
Dans ce qui suit nous allons parcourir les indicateurs vibratoires utiliss pour
alimenter un rseau de neurones destin au diagnostic mcanique, mais avant cela,
introduisons dabord quelques notions de statistique.
Bovic Kilundu YEbondo 26 Travail de DEA, Mai 2004
2.2 Notions de statistique
2.2 Notions de statistique
Nous avons soulign dans la section 0.3.2 quil tait justi dassocier un sys-
tme sous inuence alatoire des variables statistiques.
Si la srie temporelle de la vibration est regarde comme une variable alatoire
X, la rpartition de la probabilit est dnie comme
F(x) = P(X < x) (2.1)
la fonction de densit de probabilit est
f(x) =
dF(x)
dx
(2.2)
lesprance mathmatique dune fonction g(x) est lintgrale
E{g(x)} =
_
+

g(x)f(x)dx (2.3)
On dnit la fonction caractristique de la variable alatoire comme la transfor-
me de Fourier de sa fonction de densit de probabilit f(x) moyennant un change-
ment de signe. Elle est donne par [38] :
() =
_
+

e
jx
f(x)dx = E{e
jx
} (2.4)
cette fonction est aussi appele fonction de gnration des moments statistiques. En
effet, les moments sont les coefcients des puissances de j dans son dveloppement
en srie de Taylor
E{e
jx
} = E
_
1 + (j)x +
(j)
2
x
2
2!
+
(j)
3
x
3
3!
+
_
(2.5)
soit encore
E{e
jx
} = 1 + (j)E{x} +
(j)
2
2!
E{x
2
} +
(j)
3
3!
E{x
3
} + (2.6)
Les moments dordre n sont
E{x
n
} = m
n
(2.7)
Bovic Kilundu YEbondo 27 Travail de DEA, Mai 2004
2.3 Indicateurs scalaires du domaine temporel
On pourra aisement remarquer que les moments sont des drives de la fonction
caractristique par rapport j et calcules au point = 0
m
n
=
d
n
(0)
d(j)
n
(2.8)
On dnit une autre fonction () comme la seconde fonction caractristique ou
fonction de gnration des cumulants. Elle est donne par
() = ln() (2.9)
Les cumulants sont alors
c
n
=
d
n
(0)
d(j)
n
(2.10)
Cependant, on se souviendra que lvolution des signaux vibratoires relevs sur
les machines tournantes nest pas alatoire. Les vnements se reproduisent cyclique-
ment et de faon " peu prs" identique [31]
1
.
2.3 Indicateurs scalaires du domaine temporel
Dans le domaine temporel, il existe des indicateurs statistiques de longue tra-
dition qui sont bases sur les notions de moments et de cumulants statistiques [38].
La srie temporelle la plus utilise en surveillance vibratoire est lacclration. Bien
que lon se trouve dans le domaine temporel, il est important davoir lesprit que
les valeurs des indicateurs associs un signal vibratoire sont fonction de la plage
frquentielle choisie pour lanalyse. Il est donc indispensable de toujours associer
chaque indicateur la bande passante dans laquelle il a t calcul ou mesur.
Les plus utiliss de ces indicateurs sont :
La valeur efcace (RMS) : cest un indicateur temporel qui mesure le contenu ner-
gtique dans une signature vibratoire. Cest un bon indicateur dans le suivi du
niveau vibratoire, mais ne peut efcacement tre utilis pour un diagnostic. En
1
Le terme " peu prs" constitue la non-stationnarit ; il existe une similitude de la rponse vibra-
toire dun cycle de fonctionnement lautre. Les paramtres statistiques des signaux varient priodi-
quement, on parle alors de cyclostationnarit.
Bovic Kilundu YEbondo 28 Travail de DEA, Mai 2004
2.3 Indicateurs scalaires du domaine temporel
effet, il reprsente la puissance totale du signal vibratoire induite par le fonc-
tionnement de la machine et non uniquement la puissance vibratoire induite
par le dfaut recherch. Dans le cas de dsquilibre des systmes rotatifs, son
utilisation dans la dtection est performante. Pour une srie temporelle x
n
de
longueur N, la valeur efcace sexprime par
RMS =

_
1
N
N

n=1
x
2
n
(2.11)
La valeur RMS est la racine carre du deuxime moment statistique m
2
.
La valeur efcace calcule dans des bandes frquentielles donnes peut servir
dindicateur trs faible investissement quil est possible de suivre et ainsi esti-
mer le moment dintervenir sur la machine.
Kurtosis : il est un indicateur de la proportion dchantillons qui scartent faible-
ment de la valeur moyenne compare ceux qui sen cartent largement. Il
caractrise lallure aplatie dune distribution par rapport la distribution nor-
male. Il peut tre calcul de deux manires diffrentes :
Kurt =
m
4
m
2
2
3 (2.12)
ou
Kurt =
c
4
c
2
2
(2.13)
Ces deux dnitions portent les mmes informations. La prsence dun terme
de puissance 4 donne un poids considrable aux amplitudes leves. Le kurto-
sis permet de dtecter lapparition et de suivre lvolution des dfauts induisant
des forces impulsionnelles priodiques.
Facteur de vrillage (Skewness) : Il caractrise le degr de dissymtrie dune distri-
bution autour de sa moyenne. Il est calcul par
Skew =
1
N
N

i=1
_
x
n

x

x
_
3
(2.14)
Facteur de crte :Le facteur de crte est un des indicateurs spciques qui accentuent
lapparition de chocs dans les vibrations. Les pics dans le signal temporel cor-
respondront un accroissement du facteur de crte. Cet indicateur, comme le
Bovic Kilundu YEbondo 29 Travail de DEA, Mai 2004
2.4 Les indicateurs spectraux
kurtosis, est utilis pour la dtection des anomalies qui se traduisent par des
vibrations impulsives telles que la rupture de dents dengrenage ou un dfaut
les lments dun roulement. A lapparition du dfaut, il reste constant, puis
avec laugmentation des chocs le niveau de crte devient plus lev alors que
la valeur efcace nest pas inuence. Il en resulte une augmentation signica-
tive du facteur de crte. Quand la valeur efcace rejoint la valeur de crte par
suite daugmentation du nombre de chocs par cycle, le facteur de crte retombe
presqu sa valeur initiale.
Facteur de crte
Valeur efficace
Temps
Niveau
Niveau
Valeur de crte
FIG. 2.1 Evolution des valeurs de crte, efcace et du facteur de crte (adapt
de [18])
Lutilisation des statistiques dordre suprieur peut aussi donner de bons indi-
cateurs pour le diagnostic [14]. Ces indicateurs ont lavantage de contenir linforma-
tion concernant les carts dune distribution relativement un modle gaussien et
les phases de linarit du processus vibratoire. Lannexe G prsente les notions de
bispectre et trispectre.
2.4 Les indicateurs spectraux
La surveillance base sur les indicateurs scalaires calculs ou mesurs dans une
gamme de frquence dtermine prsente trois inconvnients majeurs :
Bovic Kilundu YEbondo 30 Travail de DEA, Mai 2004
2.4 Les indicateurs spectraux
la ncessit de dnir au pralable, de mesurer et donc de grer un grand
nombre dindicateurs destins chacun la surveillance dun nombre restreint
de dfauts. La dnition pralable de ces indicateurs entache la abilit de
la surveillance, puisque lapparition de tout dfaut ou symptme non prvu
lors du paramtrage de la surveillance peut ne pas tre dtecte ou ne ltre
que trs tardivement ;
limpossibilit de surveiller le systme dont le fonctionnement normal gnre
des chocs priodiques damplitudes leves (compresseurs vis, piston,
...) susceptibles de masquer lapparition de dfauts induisant eux aussi des
forces impulsionnelles (jeux, caillage, ...), mais damplitude souvent nette-
ment plus faibles ;
limpossibilit de dtecter et de suivre lvolution de dfauts induisant une
puisssance vibratoire faible, voire trs faible, mais susceptible de modier
sensiblement la forme du signal [3].
Il est apparu ncessaire de rendre plus able la surveillance par lutilisation
dautres types dindicateurs. Les indicateurs spectraux sont sensibles non seulement
laugmentation de la puissance du signal, mais galement aux volutions de sa
forme ou des amplitudes de chacune de ses composantes. Pour dterminer la struc-
ture du signal, la mthode gnrale consiste en estimer le spectre de puissance
par une Transforme de Fourier Discrte (DFT). Dautres mthodes spectrales sont
aussi dnies pour lanalyse frquentielle des signaux vibratoires. Lannexe F.8 dcrit
lanalyse spectrale paramtrique qui est une alternative la transforme de Fourier.
Pour un signal temporel x(t) dcrit par une srie discrte de N valeurs x
n
expri-
mes aux instants t
n
, la DFT est dnie comme suit
X
k
=
1
N
N1

n=0
x
n
e
j2kn/N
(2.15)
Cette relation est tablie sur une fentre de N valeurs chantillonnes produisant
ainsi des raies frquentielles avec une rsolution spectrale de f
ech
/N, o f
ech
est la
frquence dchantillonnage.
Le vecteur dentre du rseaux de neurones peut alors tre construit sur base de
ces valeurs spectrales aprs, bien sr, rduction dimensionnelle. Rangwala et Dorn-
feld [16], dans leurs travaux sur la surveillance doutil dusinage, ont appliqu cette
procdure.
Bovic Kilundu YEbondo 31 Travail de DEA, Mai 2004
2.5 Interprtation dun spectre de Fourier. Signatures vibratoires.
Si le signal contient des composantes alatoires, la reprsentation classique de
Fourier devient inapproprie cause du continuum de frquences dans le signal. On
calcule alors le densit spectrale de puissance (PSD) par moyennage des nergies des
DFT sur diffrents blocs du signal. La subdivision en blocs a le double avantage de
rduire le nombre de raies spectrales et damliorer le rapport signal-bruit dans le
spectre. Javadpour et Knapp [34] ont utilis le vecteur de densit spectrale de puis-
sance (PSD) pour nourrir un rseau de neurone de type ARTMAP. Mais il est aussi
dplor le fait que le moyennage peut mener au masquage de certains phnomnes
de courte dure [35].
Une autre difcult dapplication de la transforme de Fourier traditionnelle est
rencontre quand le signal est instationnaire. Une approche alternative pour lanalyse
des signaux instationnaires et transitoires est lanalyse temps-frquence. Diffrentes
mthodes ont t utilises dans la dtection des dfauts mcaniques. Koo et Kim [36]
dans leur tude sur le diagnostic des pompes de centrale nuclaire ont appliqu la
distribution de Wigner-Ville. Ils ont, pour alimenter un rseau de neurones rtro-
propagation du gradient, procd dabord une rduction des donnes sur les deux
axes (temps et frquence) en ne sintressant qu des frquences susceptibles de por-
ter une information. Le vecteur dentre du rseau est ainsi de dimension k = mn,
m et n tant les nombres rduits de donnes sur les axes de temps et de frquence
respectivement.
Lanalyse par ondelettes est aussi dapplication en surveillance et diagnostic
par rseau de neurones des machines, particulirement dans la reconnaissance des
dfauts des roulements [37] et dans le suivi de lusure doutil en usinage [20] .
2.5 Interprtationdun spectre de Fourier. Signatures vi-
bratoires.
Linterprtation dun spectre consiste trouver lorigine cinmatique des com-
posantes les plus nergtiques. An de pouvoir dchiffrer des informations dlivres
par la machine, il est conseill de proceder une analyse pralable aux mesures sur
site an de prdire quelles seront les composantes dominantes du signal : lorsquune
composante apparatra sur le spectre, il sera alors possible de linterpreter [19].
Bovic Kilundu YEbondo 32 Travail de DEA, Mai 2004
2.5 Interprtation dun spectre de Fourier. Signatures vibratoires.
Nature du dfaut Frquence dominantes Directions
Dsquilibrage f Radiale et axiale
Dlignage f et 2 f, parfois 3 f et 4 f Radiale et axiale
Flxion de larbre f et 2 f, parfois 3 f et 4 f Radiale et axiale
Fissuration de larbre f et 2 f Radiale et axiale
Roulement Frquences dimpact lies Radiale et axiale
aux lments constitutifs
du roulement
Paliers hydrodynamiques entre 0,4 et 0,5 f Radiale
Engrenages Lies aux nombres Radiale et axiale
de dents (hautes frquences)
Jeux, contacts intermit- 2 f Radiale et axiale
tents
Forces lectromagntiques Frquence dalimentation Radiale et axiale
et harmoniques (fonction
du nombre de ples)
Cavitation, turbulence hautes frquences Radiale et axiale
TAB. 2.1 Frquences (en fonction de la frquence f de rotation du rotor) et directions
caractristiques de dfauts affctant les machines tournantes.
Bovic Kilundu YEbondo 33 Travail de DEA, Mai 2004
2.6 Conclusions
2.6 Conclusions
La varit des indicateurs danalyse vibratoire utiliss dans les diffrentes tudes
cites ici montrent quen effectuer le choix reste une tape trs lie la nature du pro-
blme trait. Dans certains cas une normalisation des valeurs dalimentation du r-
seau de neurone est applique pour amliorer la vitesse dapprentissage et pour que
les indicateurs haute valeur ne viennent masquer les autres indicateurs (cf. 5.2.1).
Dans la seconde partie de ce propos nous abordons les aspects exprimentaux
de nos travaux. Nous y discutons, en nous basant sur les performances de classica-
tion, de linuence de diffrents indicateurs. Cette inuence est dduite dune ana-
lyse en composantes principales opre sur lespace des indicateurs dans le but den
rduire la dimension .
Bovic Kilundu YEbondo 34 Travail de DEA, Mai 2004
Deuxime partie
Aspects exprimentaux
35
Chapitre 3
Les essais
3.1 Introduction
En vue dexplorer les possibilits et les performances dune utilisation des r-
seaux de neurones pour la dtection et la classication des dfauts mcaniques com-
plexes sur machines tournantes, nous avons conduit une srie dessais sur un banc
dessais.
La campagne complte a port sur quatre dfauts de natures diffrentes, chacun
ayant plusieurs niveaux dexpression. Il sagit de :
dfaut de balourd : 5 niveaux ;
dfaut de frottement : 3 niveaux ;
ovalisation de la bague extrieure du roulement : 3 niveaux ;
dfaut dalignement de la ligne darbre : 3 niveaux.
3.2 Le dispositif exprimental
Le dispositif exprimental consiste en un moteur lectrique accoupl lastique-
ment un arbre portant deux disques entre ses deux paliers. Sur les deux disques
sont raliss des trous tarauds de faon pouvoir y xer des masses pour crer des
balourds de niveaux diffrents. Un levier portant un galet peut tre appliqu sur un
des disques an dintroduire un frottement. Pour modier le niveau de frottement,
on varie la force de contact par suspension dune masse diffrente sur le levier.
36
3.2 Le dispositif exprimental
Une vis de pression peut tre serre dans un palier pour crer des dfauts dova-
lisation de la bague extrieure du roulement tandis que des dfauts dalignement sont
obtenus en dplaant un des paliers.
Les gures 3.1 et 3.2 montrent une photographie du banc et son illustration
schmatique.
FIG. 3.1 Banc dessais simulateur de dfauts mcaniques.
Nous nous sommes proposs danalyser le comportement du dispositif sur 3
vitesses de rotation diffrentes obtenues laide dun variateur de vitesse de type
"EUROTHERM 601" contrlant le moteur. Les frquences de rotation retenues sont :
25 Hz, 22,5 Hz et 20 Hz.
Lacquisition des signaux vibratoires a t effectue laide du systme dacqui-
sition OROS quatre canaux comprenant :
un PC portable Compaq HP Presario 2510EA/P4 2.4/256 MB/30 GB
une carte dacquisition, un analyseur FFT en temps rel 4x20 kHz OR24-PCP-
4
un acclromtre industriel (PCB piezotronics) M 622A01 (SN 7470) de sensi-
bilit 10,3 mV/(m/s
2
)
Bovic Kilundu YEbondo 37 Travail de DEA, Mai 2004
3.2 Le dispositif exprimental
Moteur lectrique
i M ac
Systme dacquisition
OROS
Compaq HP Presario
2510EA/P4 2.4/256
Mb/30 Gb
Capteur
M622A01
SN 7470
Capteur
M622A01
SN 7470 Disque 1
Disque 2
Palier 1
Palier 2
Frottement
Accouplement
FIG. 3.2 Reprsentation schmatique du banc.
Bovic Kilundu YEbondo 38 Travail de DEA, Mai 2004
3.3 Procdure des essais
3.3 Procdure des essais
Aprs avoir impos un dfaut et mis en marche le banc dessai, les mesures
sont releves sur chaque palier suivant deux directions radiales perpendiculaires (Z :
verticale et Y : horizontale). Les points de mesure sont nots de la manire suivante :
Z1 : direction verticale sur le palier 1
Y1 : direction horizontale sur le palier 1
Z2 : direction verticale sur le palier 2
Y2 : direction horizontale sur le palier 2
Une condition de fonctionnement est compltement caractrise par la vitesse
de rotation, les dfauts simuls et leurs niveaux respectifs.
Pour chaque condition, nous avons enregistr un chier temporel dont les prin-
cipaux attributs sont :
gamme frquentielle : 0-2000 Hz
dure de lenregistrement T :20 secondes
taille de lchantillon :102400
pas de temps t :1, 9531 10
4
s
Des spectres frquentiels provenant dune FFT en temps rel ont t enregis-
trs suivant deux gammes de frquences en chaque point de mesure et pour chaque
condition :
1. Gamme 1 : 0-200 Hz
Rsolution frquentielle :0,125 Hz
2. Gamme 2 : 0-2000 Hz
Rsolution frquentielle :1,25 Hz
3.3.1 Les prcautions
An de conduire bien les mesures et de sassurer une provision de reptabilit
des essais, les prcautions suivantes ont d tre observes :
observation systmatique dun temps stabilisation chaque changement de
condition avant de procder la mesure, ceci permet dviter les phnomnes
transitoires ;
Bovic Kilundu YEbondo 39 Travail de DEA, Mai 2004
3.4 Codication des dfauts et des chiers
soin particulier dans la xation du capteur et meilleur immobilisation du
cble de transmission du signal pour minimiser les bruits de mesure.
3.4 Codication des dfauts et des chiers
Pour faciliter le traitement, un systme de codication a t adopt. Il com-
porte toute linformation devant caractriser compltement la condition simule. Le
tableau 3.1 reprend tous les dfauts qui font lobjet de la campagne complte dessais.
Dfaut Niveau Signication Dsignation
Balourd 0 machine suppose exempte de dfaut de balourd B0
1 Masse de 20 gr sur le premier disque B1
2 Masse de 40 gr sur le premier disque B2
3 Masse de 20 gr sur le second disque B3
4 Masse de 40 gr sur le second disque B4
Frottement 0 Machine suppose sans dfaut de frottement F0
1 Force normale modre au point de contact F1
2 Force normale leve au point de contact F2
Dfaut de 0 Machine suppose sans ce dfaut R0
roulement 1 Vis de pression modrment serre R1
(ovalisation) 2 Vis de pression sufsamment serre R2
Dsalignement 0 Pas de dfaut dalignement A0
1 Faible dsalignement A1
2 Dsalignement relativement grand A2
TAB. 3.1 Dfauts simules
La codication comprend aussi une information sur le niveau de frquence de
rotation et la gamme de frquences de mesure. Les frquences de rotation du moteur
sont dsignes par les chiffres 1, 2 et 3
frquence 1 : 25 Hz
frquence 2 : 20 Hz
Bovic Kilundu YEbondo 40 Travail de DEA, Mai 2004
3.5 Prparation des donnes
frquence 3 : 22.5Hz
Ainsi, par exemple, un chier not H1B1F2R0A0 dsignera un enregistrement
haute frquence (0-2 kHz) la frquence de rotation de 25 Hz sur une condition de
balourd1, de frottement2 et sans dfaut de roulement ni dalignement.
Linventaire complet des combinaisons des dfauts avec leur diffrents niveaux
donne 135 conditions simuler par niveau de vitesse soit au total 405 essais. Les 135
conditions correspondent 5 cas de balourd x 3 cas de frottement x 3 cas de dfauts
de roulement x 3 cas dalignement, y compris le niveau "zro" pour chaque type de
dfauts.
Nous avons, au lieu de simuler toutes ces conditions, conduit des essais seule-
ment sur 162 conditions choisies de faon avoir une reprsentabilit de chaque ni-
veau de dfaut. Lannexe B reprend toutes les conditions traites dans cette tude.
3.5 Prparation des donnes
Le systme OROS permet lobtention en temps rel de spectres frquentiels.
Pour des raisons de facilit de traitement numrique sous Matlab, nous navons ex-
ploit que les enregistrements temporels donnes par OROS sous format ".wav" aprs
leur conversion en format ".mat".
Pour le stockage des 4 enregistrements (Z1, Y1, Z2, Y2), une matrice dont les co-
lonnes reprennent chacun des 4 enregistrements a t construite pour chaque condi-
tion de fonctionnement.
3.5.1 Traitement dans le domaine temporel
Il a t procd, grce aux codes crits sous Matlab, au calcul des indicateurs du
domaine temporel dans des gammes de frquence spciques aprs ltrage num-
rique. Les signaux dans les gammes suivantes ont t obtenus avec des ltres num-
riques de Butterworth dordre 5 :
0-30 Hz
30-300 Hz
Bovic Kilundu YEbondo 41 Travail de DEA, Mai 2004
3.5 Prparation des donnes
300-2000 Hz
Chaque srie temporelle a t subdivise en 4 blocs de taille 25600 points sans
recouvrement an dintroduire leffet du bruit de mesure. Cette procdure permet
danalyser la robustesse du rseau de neurones face de tels bruits et daugmenter
les tailles des ensembles dapprentissage et de test.
Le vecteur dentre du rseau de neurones est constitu, pour une condition
donne, des indicateurs statistiques calculs du signal brut et/ou de signaux ltrs
dans les trois gammes ci-dessus.
Une rduction dimensionnelle est opre par analyse en composantes princi-
pales pour faciliter lapprentissage du rseau de neurones.
3.5.2 Traitement dans le domaine frquentiel
Dans le domaine frquentiel, nous avons utilis la transforme discrte de Fou-
rier. Nous avons calcul, pour chaque condition de fonctionnement, un spectre de
512 lignes obtenues par moyennage dnergie sur de fentres sans recouvrement de
longueur 1024 points [39].
Puisquon ne peut simaginer nourrir un rseau de neurone avec les vecteurs
de valeurs spectrales dont la taille est trs grande, il simposait une rduction de la
dimension pour laquelle deux choix taient possibles :
1. Lextraction des raies caractristiques : on forme un vecteur dentre constitu
des valeurs correspondant aux seules frquences caractristiques, notamment
les multiples de la frquence de rotation. Lide nest pas dextraire exactement
les raies des multiples de la frquence de rotation, mais plutt les raies les plus
grandes dans les intervalles judicieusement choisis autour des frquences mul-
tiples de la frquence de rotation.
2. La rduction dimensionnelle par une analyse multivarie : on procde une
analyse en composantes principales pour ne retenir que les directions princi-
pales qui reclent une quantit dinformation leve.
Lorganigramme de la gure 3.3 montre, sous une forme condense, le traite-
ment de prparation subi par les donnes avant lalimentation du rseau de neu-
rones.
Bovic Kilundu YEbondo 42 Travail de DEA, Mai 2004
3.5 Prparation des donnes
Signal original 0-2000 Hz
(4 canaux)
Raies caractristiques
Spectre frquentiel(512 lignes
obtenues par moyenage-fentre de
Hamming)
Filtrage
0-30 Hz
30-300 Hz
300-2000 Hz
Analyse en
composantes principales
Extraction des indicateurs
temporels
(valeur efficace, facteur de crte, kurtosis, skewness)
Entre du rseau de neurones
Analyse en
composantes principales
FIG. 3.3 Traitement de prparation des donnes
Bovic Kilundu YEbondo 43 Travail de DEA, Mai 2004
3.6 Effet de la variation de vitesse
3.6 Effet de la variation de vitesse
La variation de la frquence de rotation est un phnomne dont il faut tenir
compte dans toute procdure de dtection de dfauts mcaniques sur les machines
tournantes. Deux effets importants sont envisageables : dune part, la position des
composantes spectrales synchrones avec la vitesse de rotation peut varier dans des
proportions importantes et dautre part, une vibration est limage du produit de
convolution dune force dexcitation par la rponse impulsionnelle de la structure
sur laquelle est xe le capteur. Dans le domaine frquentiel, les grandeurs caract-
ristiques du signal vibratoire dpendent du produit de lamplitude de chaque com-
posante spectrale de la force dexcitation par les valeurs de la fonction de transfert
associes aux frquences de ces mmes composantes [3].
Or, dune manire gnrale, lamplitude des composantes spectrales de la force
dexcitation croissent avec la vitesse de rotation. Dans le cas particulier des balourds,
cette amplitude crot proportionnellement au carr de la frquence de rotation et lon
peut ainsi saffranchir de leffet de variation de vitesse sur lamplitude en normalisant
les valeurs spectrales par rapport au carr de la frquence de rotation. Ceci nest pas
ncessairement vrai pour les autres types de dfauts.
Pour un diagnostic bas sur la comparaison des spectres obtenus aux spectres
gabarits, la considration des variations de vitesse est imprative. Une variation inf-
rieure 10% peut gnralement tre compense et une comparaison des spectres est
admissible, mais pour une variation de plus de 10%, il faut ncessairement un autre
gabarit [30].
Dans cette tude o la variation maximale de vitesse est de 25%, du fait de
la prsence de la frquence intermdiaire (22,5 Hz), les performances de dtection
peuvent tre assures pour toute frquence de rotation comprise entre la frquence
maximale de 25 HZ et la frquence minimale de 20 Hz. Les conditions de fonctionne-
ment aux frquences de rotation en dehors de la plage 20-25 Hz mais pour lesquelles
la variation reste infrieure 10% peuvent aussi, en principe, tre reconnues.
Bovic Kilundu YEbondo 44 Travail de DEA, Mai 2004
3.7 Caractristiques spectrales des dfauts traits
3.7 Caractristiques spectrales des dfauts traits
3.7.1 Le balourd
Nous illustrons sur les gures 3.4 3.6 les spectres aux 3 vitesses des conditions
de balourd de niveau 1 et de niveau 2 et de la condition normale, un zoom sur la
zone 0-200 Hz est faite an de rendre visibles ces phnomnes qui se passent dans
les basses frquences. On sait y remarquer leffet du changement de vitesse par la
diffrence des niveaux.
On peut aussi reconnatre leffet de lexcentricit du rotor du moteur lectrique
deux fois la frquence du rseau lectrique soit 100 Hz.
0 20 40 60 80 100 120 140 160 180 200
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
2
=20 Hz
frquence
3
=22,5 Hz
1x RPM
2x Frq. courant lectr.
FIG. 3.4 Zoom sur la gamme 0-200 Hz pour le balourd B1 aux 3 frquences de
rotation (Canal Z2).
Un autre fait remarquable est qu la frquence de rotation de 22,5 Hz les ni-
veaux sont plus levs qu la frquence de 25 Hz. Un tel fait peut tre expliqu par
la possibilit que cette frquence soit proche dune rsonance.
A ce niveau, nous pouvons nous questionner sur la possibilit pour un classi-
cateur automatique de distinguer les diffrents niveaux de balourd. La gure 3.7
montre une forte similarit entre les spectres des balourds et fait prdire une relative
difcult de diagnostic pour ce cas.
Bovic Kilundu YEbondo 45 Travail de DEA, Mai 2004
3.7 Caractristiques spectrales des dfauts traits
0 20 40 60 80 100 120 140 160 180 200
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
2
=20 Hz
frquence
3
=22,5 Hz
1x RPM
FIG. 3.5 Zoom sur la gamme 0-200 Hz pour le balourd B2 seul aux 3 frquences de
rotation (Canal Z2).
0 20 40 60 80 100 120 140 160 180 200
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
Frquence [Hz]
A
c
c

l
r
a
t
io
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
2
=20 Hz
frquence
3
=22,5 Hz
2x frquence rseau lctrique
0 500 1000 1500 2000 2500 3000
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
Frquence [Hz]
A
c
c

l
r
a
t
io
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
2
=20 Hz
frquence
3
=22,5 Hz
100 Hz
FIG. 3.6 La condition normale aux 3 frquences de rotation (Canal Z2). Zoom sur la
gamme 0-200 Hz ( gauche) et Spectre global ( droite)
Bovic Kilundu YEbondo 46 Travail de DEA, Mai 2004
3.7 Caractristiques spectrales des dfauts traits
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
1.5
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
1.5
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
1.5
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
1.5
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
1.5
Frquence [Hz]
frquence
1
=25 Hz
frquence
1
=25 Hz
frquence
1
=25 Hz
frquence
1
=25 Hz
frquence
1
=25 Hz
Balourd B1 seul
Balourd B2 seul
Balourd B3 seul
Balourd B4 seul
Condition normale
FIG. 3.7 Balourds de niveaux diffrents : les spectres se ressemblent.
Bovic Kilundu YEbondo 47 Travail de DEA, Mai 2004
3.7 Caractristiques spectrales des dfauts traits
3.7.2 Le frottement
Sur la gure 3.8 est reprsente la condition de frottement svre F2 pour le si-
gnal relev au point Z2. Nous remarquons que dans la zone des basses frquences
rien de particulier nest observable except leffet de la frquence du courant lec-
trique 100 Hz, mais lexamen du spectre global rvle des pics de niveaux levs en
hautes frquences. Le bruit de fond y est aussi lev compar au cas de la condition
normale de la gure 3.6b.
0 20 40 60 80 100 120 140 160 180 200
0
0.2
0.4
0.6
0.8
1
1.2
1.4
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
2
=20 Hz
frquence
3
=22,5 Hz
0 500 1000 1500 2000 2500
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
2
=20 Hz
frquence
3
=22,5 Hz
FIG. 3.8 La condition F2 aux 3 frquences de rotation (Canal Z2). Zoom sur la
gamme 0-200 Hz ( gauche) et Spectre global ( droite)
3.7.3 Lovalisation de la bague externe du roulement
Les spectres ci-dessous sont associs la condition R1 de dformation de niveau
1 de la bague externe du roulement. La gure 3.9 rvle dans les basses frquences
l apparition de nouvelles raies non synchrones avec les frquences de rotation et un
autre phnomne se rptant avec des raies latrales remarquables facilement dans
la zone hautes frquences.
En examinant sparment les spectres correspondant chaque vitesse (gures
3.10 3.12), nous voyons la prsence dun pic environ 2, 6 RPM qui doit corres-
pondre la frquence caractristique de la bague externe du roulement.
Bovic Kilundu YEbondo 48 Travail de DEA, Mai 2004
3.7 Caractristiques spectrales des dfauts traits
0 50 100 150 200 250
0
0.05
0.1
0.15
0.2
0.25
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
2
=20 Hz
frquence
3
=22,5 Hz
0 500 1000 1500
0
0.05
0.1
0.15
0.2
0.25
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
2
=20 Hz
frquence
3
=22,5 Hz
FIG. 3.9 La condition R1 aux 3 frquences de rotation (Canal Z2). Zoom sur la
gamme 0-250 Hz ( gauche) et Spectre global ( droite)
0 50 65 100 129 150 200 250
0
0.05
0.1
0.15
0.2
0.25
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
65 Hz=2.6x RPM
~2x 65 Hz
FIG. 3.10 Zoom sur la gamme 0-300 Hz pour le dfaut R1 seul la frquence de
rotation de 25 Hz (Canal Z2).
Bovic Kilundu YEbondo 49 Travail de DEA, Mai 2004
3.7 Caractristiques spectrales des dfauts traits
0 51.2 80 100 131.2 160 200 250 300
0
0.05
0.1
0.15
0.2
0.25
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence2=20 Hz
~ 2,6x RPM
FIG. 3.11 Zoom sur la gamme 0-300 Hz pour le dfaut R1 seul la frquence de
rotation de 20 Hz (Canal Z2).
0 5058.5 90100 117 139150 175.5 200 250 270 300
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence3=22,5 Hz
58,5 Hz = 2,6x RPM
2x 58,5 Hz
4x RPM
FIG. 3.12 Zoom sur la gamme 0-300 Hz pour le dfaut R1 seul la frquence de
rotation de 22,5 Hz (Canal Z2).
Bovic Kilundu YEbondo 50 Travail de DEA, Mai 2004
3.7 Caractristiques spectrales des dfauts traits
3.7.4 Le dlignage
Comme nous navons pas, dans la srie de nos essais, trait isolement un cas
de dsalignement, nous examinerons une combinaison de ce type de dfaut avec un
autre, par exemple le balourd. Nous allons nous intresser la condition B4F0R1A1
cest--dire un balourd de niveau 4 avec une ovalisation du roulement et un dsa-
lignement de niveau 1. Nous examinons, sur les gures 3.13 3.15, successivement
lvolution de la structure spectrale quand un dfaut est ajout. On part du balourd
B4 seul auquel on ajoute le dfaut de roulement R1 puis le dsalignement A1.
0 500 1000 1500 2000 2500
0
0.5
1
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 500 1000 1500 2000 2500
0
0.5
1
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 500 1000 1500 2000 2500
0
0.5
1
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
1
=25 Hz
frquence
1
=25 Hz
B4F0R0A0
B4F0R1A0
B4F0R1A1
FIG. 3.13 Spectres globaux la frquence de rotation de 25 Hz (Canal Z1).
Lexamen dans les basses frquences partir des gures 3.14 et 3.15 montre que
lajout du dfaut de roulement amplie les raies dj prsentes avec le balourd et fait
apparatre dautres pics, particulirement celui qui t identi 2, 6 RPM, donc
65 Hz pour la frquence de rotation de 25 Hz. Cette raie 65 Hz est tout de mme
prsente en condition sans dfaut de roulement mais avec un niveau trs faible. Sa
mise en vidence est rendue possible avec lutilisation dune chelle logarithmique.
On peut dduire de tout ceci quavant dimposer une ovalisation au roulement, celui-
ci prsentait dj de petits chocs.
Le dfaut dalignement vient, par contre, attnuer les niveaux qui ont t am-
plis par le dfaut de roulement dans les basses frquences.
Bovic Kilundu YEbondo 51 Travail de DEA, Mai 2004
3.7 Caractristiques spectrales des dfauts traits
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
1
=25 Hz
frquence
1
=25 Hz
B4F0R0A0
B4F0R1A0
B4F0R1A1
FIG. 3.14 Zoom sur la gamme 0-400 Hz la frquence de rotation de 25 Hz (Canal
Z1).
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
10
2
10
1
10
0
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 90100 125 150 175 200 225 250 275 300 325 350 375 400
10
2
10
1
10
0
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 90100 125 150 175 200 225 250 275 300 325 350 375 400
10
2
10
1
10
0
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
1
=25 Hz
frquence
1
=25 Hz
B4F0R0A0
B4F0R1A0
B4F0R1A1
FIG. 3.15 Zoomsur la gamme 0-400 Hz la frquence de rotation de 25 Hz en chelle
logarithmique pour amplier les phnomnes de faibles amplitudes (Canal Z1).
Bovic Kilundu YEbondo 52 Travail de DEA, Mai 2004
3.8 Conclusion
Nous avons aussi observ que le deuxime niveau de dsalignement attnuait
les amplitudes de nombreuses frquences tout en en faisant apparatre dautres
frquences. La gure 3.16 fait ressortir cette observation.
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
1.5
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
1.5
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
1.5
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
0
0.5
1
1.5
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
1
=25 Hz
frquence
1
=25 Hz
frquence
1
=25 Hz
B0F0R0A0
B0F2R1A0
B0F2R2A1
B0F2R2A2
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
10
0
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
10
0
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
10
0
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 25 50 6575 100 125 150 175 200 225 250 275 300 325 350 375 400
10
0
Frquence [Hz]
A
c
c

r
a
t
i
o
n

[
m
/
s

]
frquence
1
=25 Hz
frquence
1
=25 Hz
frquence
1
=25 Hz
frquence
1
=25 Hz
B0F0R0A0
B0F2R1A0
B0F2R2A1
B0F2R2A2
FIG. 3.16 Effet de niveau de dsalignement en chelles linaire ( gauche) et loga-
rithmique ( droite).
3.8 Conclusion
Nous venons de prsenter les dfauts que nous avons trait sur le banc simu-
lateur des dfauts mcaniques. Les caractristiques spectrales prsentes ici nont eu
pour objectif que de mettre en evidence les diffrences apparaissant dans la forme
des spectres frquentiels. Cest ainsi quil peut dej tre prdit partir de la gure 3.7
que les diffrents balourds pourront tre distingus de manire relativement difcile
par un classicateur.
Notre tude exprimentale a t conduite en deux phases qui sont dcrites
dans les chapitres qui suivent. La premire phase peut tre vue comme une mise
en train dans le processus du traitement des donnes et la construction du rseau
de neurones. Aussi navons-nous considr dabord que deux types de dfauts. La
deuxime phase a bnci de toutes les leons tires au cours de la premire phase.
On remarquera donc que les techniques de traitement des donnes ainsi que larchi-
tecture des rseaux de neurones sont trs diffrentes.
Bovic Kilundu YEbondo 53 Travail de DEA, Mai 2004
Chapitre 4
Premire phase exprimentale.
Simulation de deux dfauts : le
balourd et le frottement
Dans une premire phase, seuls deux types de dfauts ont t considrs : le ba-
lourd et le frottement. Les deux dfauts ont t simuls aussi bien seuls que combins
en tenant compte de leurs diffrents niveaux dexpression. Le tableau 4.1 donne une
caractrisation des dfauts qui ont t simuls au cours de cette phase.
Dfaut Niveau Signication
Balourd 0 machine suppose exempte de dfaut de balourd
1 Masse 1 sur le premier disque
2 Masse 2 sur le premier disque
3 Masse 1 sur le second disque
4 Masse 2 sur le second disque
Frottement 0 Machine suppose sans dfaut de frottement
1 Force normale modre au point de contact
2 Force normale leve au point de contact
TAB. 4.1 Les dfauts simuls au cours de la premire phase dessais
Cette premire tape de lexprimentation a consist en ltude de la dtectabi-
lit de deux dfauts concourants : le balourd et le frottement. Elle nous a aussi permis
54
4.1 Construction du rseau de neurones
Condition Codication Sortie Dsire
Normale B0F0R0A0 0000
Frottement1 B0F1R0A0 0100
Frottement2 B0F2R0A0 0200
Balourd1 B1F0R0A0 1000
Balourd1 et frottement1 B1F1R0A0 1100
Balourd1 et frottement2 B1F2R0A0 1200
Balourd2 B2F0R0A0 2000
Balourd2 et frottement1 B2F1R0A0 2100
Balourd3 B3F0R0A0 3000
Balourd3 et frottement1 B3F1R0A0 3100
Balourd4 B4F0R0A0 4000
Balourd4 et frottement1 B4F1R0A0 4100
TAB. 4.2 Conditions tudies dans la phase1
de raliser des essais sur larchitecture du rseaux de neurones et sur le traitement des
donnes. Le tableau 4.2 fournit, en regard de chaque condition, la sortie dsire pour
le rseau de neurones. Les quatre chiffres reprsentent, en effet, les quatre compo-
sants du vecteur "cible" du rseau de neurones et correspondent au niveau de chacun
de quatre dfauts dans la condition de fonctionnement considre. Remarquons que
les vecteurs "cibles" du rseau caractrisent les dfauts quelle que soit la vitesse de
rotation du banc de simulation.
4.1 Construction du rseau de neurones
La construction dun rseau de neurone est, dans un large nombre de cas, un
processus par essai et erreur. Pour concevoir un rseau de neurone de haute per-
formance les paramtres relatifs aussi bien lapprentissage (taux dapprentissage,
algorithme, ...) qu la structure du rseau de neurones doivent tre regards simul-
tanment.
Pour lapprentissage, il existe des paramtres de nuisance tels que lajustage
Bovic Kilundu YEbondo 55 Travail de DEA, Mai 2004
4.1 Construction du rseau de neurones
initial des poids synaptiques, les tailles et leur rapport pour les ensembles dappren-
tissage et de test. Une bonne conception doit tre robuste vis--vis de ces paramtres.
Dans la tache de construction du rseau de neurones, les degrs de libert ajus-
tables sont :
1. Type de rseau
Nous avons choisi dutiliser le rseau couches unidirectionnel et rtropropa-
gation du gradient (multilayers feedfoward) qui est le type de rseau le plus
utilis.
2. Architecture
Un rseau de neurones est dautant plus puissant quil a des couches caches et
un nombre lev de noeuds dans ces couches. Les fonctions sigmodes sont les
plus indiques pour mieux approcher toute non linarit.
(a) Nombre de couches
Il a t retenu, aprs plusieurs essais, une structure 4 couches.
(b) Nombre de neurones par couches
Un rseau avec plusieurs neurones apprend mieux mais prsente un risque
assez grand de surapprentissage.
Le nombre de neurones dans la couche de sortie est x par la dimension
du vecteur "cible" qui est, dans cette tude, 4.
(c) Fonctions dactivation des couches
Dans les couches caches nous avons utilis les fonctions sigmodes et la
couche de sortie une fonction linaire non sature positivement. La fonc-
tion tangente sigmode est donne par
tansig(n) =
2
1 +exp(2n)
1 (4.1)
Bovic Kilundu YEbondo 56 Travail de DEA, Mai 2004
4.1 Construction du rseau de neurones
10 8 6 4 2 0 2 4 6 8 10
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
y=tansig(x)
y
x
et la fonction sigmode log par
logsig(n) =
1
1 +exp(n)
(4.2)
10 8 6 4 2 0 2 4 6 8 10
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
y = logsig(x)
x
y
Les fonctions linaires sont
purelin(x) = x (4.3)
poslin(x) =
_
x x 0
0 ailleurs
(4.4)
(d) Algorithmes dapprentissage
Deux algorithmes de rtropropagation du gradient implments dans le
"neural network toolbox" de Matlab ont t expriments. Il sagit de :
Bovic Kilundu YEbondo 57 Travail de DEA, Mai 2004
4.2 Le vecteur dentre. Domaine temporel
lalgorithme du gradient conjugu "trainscg" : cet algorithme est bien
ddi aux problmes de classication dans le cas de grands rseaux et
prsente lavantage davoir moins dexigence de stockage en mmoire
pendant le calcul et dtre sufsamment rapide.
lalgorithme de la descente du gradient taux variable dapprentissage
"traingdx" : celui-ci converge lentement. Rappelons quil peut parfois
tre prfrable davoir une convergence lente ; cest le cas des situations
o lon dsire obtenir une erreur de validation la plus faible possible ;
p
1
p
R
Balourd
Frottement
Roulement
Alignement
p
i
Entre
1 re couche
cache
2 me couche
cache
3 me couche
cache
Sortie
FIG. 4.1 Structure du rseau de neurones
4.2 Le vecteur dentre. Domaine temporel
A ce stade, nous nous proposons danalyser deux axes importants savoir :
la conception du rseau de neurones pour de meilleures performances ;
et ltude de la sensibilit des rponses du rseau de neurones par rapport
aux diffrents indicateurs.
Une volution simultane sur les deux axes est moins vident parce que chaque
axe est multifactoriel. Cest ainsi que nous avons dcid de ger la structure du r-
Bovic Kilundu YEbondo 58 Travail de DEA, Mai 2004
4.3 Conduite de lapprentissage et du test
seau celle qui prsente, avec "un minimum de noeuds", le meilleur score de clas-
sication pour une famille dindicateurs initiaux pralablement choisis. Ceci nous
permet dinvestiguer linuence des indicateurs sur les performances du rseau de
neurones.
Les indicateurs que nous avons utiliss sont extraits des statistiques du domaine
temporel. Les familles suivantes ont t testes :
1. signal original non ltr : valeur efcace, facteur de crte, kurtosis et skewness
calculs pour les quatre points de mesure. Le vecteur ainsi construit est un vec-
teur de dimension 16 ( 4 indicateurs par point de mesure) ;
2. signaux ltrs : analyse conduite avec le seul canal Z1. Les indicateurs calculs
sur les signaux ltrs ont considrs seuls ou joints ceux provenant du signal
original pour former le vecteur dentre ;
3. signaux non ltrs : analyse conduite avec le seul canal Z1 pour mieux compa-
rer les rsultats obtenus avec les signaux ltrs ceux issus du signal original
non ltr sur ce canal.
4.3 Conduite de lapprentissage et du test
En divisant chaque signal en 4 blocs, nous avons constitu un ensemble de 144
signaux partir duquel devaient tre construits les ensembles dapprentissage et de
test. Trois quarts des donnes ont servi lapprentissage et un quart au test. Ces
ensembles ont t construits par extraction des colonnes rgulirement espaces de
la matrice des donnes P qui, elle, a 144 colonnes. La mme dmarche a t suivie
pour la matrice des cibles T. Lextrait de code suivant a servi cet effet
[R Q]=size(P);
indi_app=[1:4:Q 3:4:Q 4:4:Q];
indi_tst=2:4:Q;
% ensemble de donnes dapprentissage
Ptrain=P(:,indi_app);
Bovic Kilundu YEbondo 59 Travail de DEA, Mai 2004
4.3 Conduite de lapprentissage et du test
% ensemble de sorties dsires pour lapprentissage
Ttrain=T(:,indi_app);
% ensemble de donnes de test
Ptest=P(:,indi_tst);
% ensemble de sorties dsires pour le test
Ttest=T(:,indi_tst);
4.3.1 Bruitage des donnes
Lors de lapprentissage un bruitage a t effectu sur les donnes par addition
dun bruit blanc. Lobjectif poursuivi est de comparer les performances du rseau en-
tran dans les conditions normales avec celles du rseau entran dans les conditions
de bruit. Le bruitage a permis aussi de prvenir le phnomne de mmorisation lors
de lapprentissage du rseau de neurones vu que sa complexit ( nombre de couches
caches et de neurones) ntait pas ngligeable.
Pour cela, dix ensembles des donnes bruites ont t prsents successivement
au rseau aprs passage sur les donnes non bruites. Voici un extrait de code :
%copie du rseau pralablement entran sans bruit
netn=net;
% nouvel ensemble "cible"
Tn=[Ttrain Ttrain Ttrain Ttrain];
for passage=1:10
fprintf(Passage=%.0f\n,passage)
%addition dun bruit de niveau 1
pn1=(Ptrain+randn(size(Ptrain))*0.1);
%addition dun bruit de niveau 2
pn1=(Ptrain+randn(size(Ptrain))*0.2;
Bovic Kilundu YEbondo 60 Travail de DEA, Mai 2004
4.4 Rsultats et discussion
%nouvel ensemble dapprentissage
Pn=[Ptrain,Ptrain,pn1, pn2];
%apprentissage
[netn,tr]=train(netn,Pn,Tn);
end
Il savrait ensuite fond de refaire un passage sur les donnes non bruites
pour sassurer quelles restaient bien catgorises.
Les sorties du rseaux de neurones sont arrondies lentier le plus proche pour
permettre leur comparaison aux cibles qui sont des entiers.
4.4 Rsultats et discussion
Nous allons analyser les performances de classication atteintes en fonction des
indicateurs utiliss et du prtraitement des donnes.
4.4.1 Dtection des deux types de dfauts
Dans tous les cas, la dtection du balourd et du frottement, sans considration
de niveau dexpression, sest ralise de manire satisfaisante.
La prsence du frottement a t dtecte en moyenne dans 98%des cas tant avec
le rseau entran sous bruit quavec le rseau sans bruit.
La prsence du balourd a t dtecte dans 93%des cas pour le rseau sans bruit
et dans 94% des cas pour le rseau avec bruit.
La condition suppose normale de la machine a t, elle, assez mal catgorise :
64% dans le cas sans bruit et 67% dans le cas avec bruit. Elle a t classe comme
une condition de balourd de niveau 1 ou de niveau 2. Ce phnomne sexplique trs
logiquement par le fait que ce que nous avons considr comme condition normale
nest pas rigoureusement exempt de dsquilibrage.
Le tableau 4.3 illustre de manire condense les performances obtenues dans la
dtection des deux classes sans diffrenciation de niveau.
Bovic Kilundu YEbondo 61 Travail de DEA, Mai 2004
4.4 Rsultats et discussion
Classe Rseau entran avec bruit Rseau entran sans bruit
Balourd 94% 93%
Frottement 98 % 98 %
Normale 67% 64%
TAB. 4.3 Capacit de dtection des classes
4.4.2 Signal original non ltr 4 canaux
Une premire tude a t mene avec les donnes non ltres globales des 4
canaux an de dterminer une structure satisfaisante du rseau de neurones.
Nous avons abouti au choix dune structure 4 couches avec respectivement
100, 50, 50 et 4 noeuds dans les couches. Quant aux fonctions de transfert, lutilisation
de la fonction tangente sigmode dans la deuxime couche sest rvle prfrable
une structure avec seulement des fonctions logsig ou une structure avec la fonction
tangente sigmode dans la premire couche.
Le tableau 4.4 illustre cet effet. Il reprend les performances obtenues avec un
vecteur dentre construit avec la valeur efcace, le facteur de crte, le kurtosis et le
skewness des donnes non ltres des quatre points de mesure. Convenons de noter
R1 le rseau entran avec les donnes non bruites et R2 celui entran avec bruit.
Cas Structure du rseau Performance de R1 Performance de R2
1 100/50/50/4 72% 67%
tansig/logsig/logsig/purelin
traingdx
2 100/50/50/4 56% 64%
logsig/logsig/logsig/purelin
traingdx
3 100/50/50/4 72% 72%
logsig/ tansig/logsig/purelin
traingdx
TAB. 4.4 Effet de choix des fonctions dactivation
Bovic Kilundu YEbondo 62 Travail de DEA, Mai 2004
4.4 Rsultats et discussion
Lapprentissage du rseau de neurone avec lalgorithme "trainscg" plutt que
"traingdx" a sembl amliorer les rsultats . Sa rapidit de convergence nous a permis
dimposer une erreur encore plus faible pour les sorties au cours de lapprentissage.
Avec une erreur quadratique moyenne mse = 0, 01 nous avons obtenu 72% pour R1
et 69% pour R2. En imposant mse 0,001 les performances sont passes 72% pour
R1 et 75% pour R2 (tableau 4.5).
Niveau derreur maximal R1 R2
Erreur moyenne quadratique mse=0,01 72% 69%
Erreur moyenne quadratique mse=0,001 72 % 75 %
TAB. 4.5 Performances en fonction de lobjectif derreur
Un vecteur dindicateurs compos de la valeur efcace, du facteur de crte, du
skewness et de la valeur de crte positive a donn les rsultats suivants : 69% pour
R1 et 56% pour R2.
4.4.3 Signal ltr 1 canal
Pour analyser le comportement du rseau de neurones vis--vis des indicateurs
issus des signaux ltrs, il a dabord t considr le seul point de mesure Z1. Le
vecteur dentre est constitu de la valeur efcace, le facteur de crte, kurtosis et le
skewness calculs pour les signaux ltrs dans les 3 gammes de frquence (0-30, 30-
300, 300-2000 Hz) et pour le signal brut.
Les taux de bonne prdiction atteints dans ce cas sont 50% pour R1 et 47% pour
R2. Et en omettant le skewness, on obtient 50% et 44% pour R1 et R2 respectivement.
Pour comparer les performances des signaux ltrs celles des signaux non
ltrs, il fallait aussi pour ce dernier conduire un calcul sur le seul canal Z1. Et dans
ce cas les performances nont t que de 31% pour R1 et 33% pour R2.
On remarquera que les indicateurs calculs dans des gammes de frquence sp-
ciques donnent une prdiction nettement meilleure.
Bovic Kilundu YEbondo 63 Travail de DEA, Mai 2004
4.4 Rsultats et discussion
4.4.4 Signal ltr 4 canaux
En considrant la fois les 4 points de mesure, les indicateurs issus des signaux
ltrs auxquels sont joints ceux issus du signal brut donnent des performances qui
tmoignent de limportance dune telle procdure. Le tableau 4.6 dgage aussi leffet
du choix des indicateurs dans ce cas.
Indicateurs Dimension du vecteur Performance de R1 Performance de R2
RMS 64 50% 75%
FC
KURT
SKEW
RMS 48 72% 83%
KURT
SKEW
RMS 32 64% 83%
KURT
RMS 32 61% 58%
FC
TAB. 4.6 Rsultats obtenus avec des signaux ltrs 4 canaux
RMS :valeur efcace ; FC :facteur de crte ; KURT :kurtosis ; SKEW :skewness
Ces rsultats sont amliors par rapport dune part ceux obtenus en 4 canaux
avec les signaux non ltrs et dautre part ceux obtenu en 1 seul canal avec ltrage.
Il a en outre t remarqu une rduction sensible du temps de calcul et du nombre
ditrations avant convergence.
En investiguant les sensibilits de la prdiction par rapport aux indicateurs,
nous avons procd lomission dun ou de deux indicateurs et observ la tendance
quafchaient les rsultats. Nous en sommes arrivs la conclusion surprenante que
la prsence du facteur de crte rendait trs imprcise la classication.
Comme dans notre dmarche nous travaillons sur des signaux diviss en blocs,
il est intuitivement logique dadmettre que les indicateurs ables doivent prsenter
Bovic Kilundu YEbondo 64 Travail de DEA, Mai 2004
4.4 Rsultats et discussion
une certaine stabilit de niveau pour toute taille de blocs considre. En observant la
gure 4.2 qui fournit les niveaux des indicateurs en fonctions de la taille de lchan-
tillon, on peut remarquer que le facteur de crte est le seul indicateur qui ne se stabi-
lise que pour des chantillons de taille trs leve. Donc pour une dmarche comme
celle adopte dans cette tude et qui consiste en la division de la srie temporelle en
plusieurs blocs, le facteur de crte semble ne pas tre un bon indicateur. Cette gure
4.2 est trace sur base du signal en Z1 de la condition H1B0F0R0A0. Les volutions
restent les mmes pour les autres points de mesure et pour toutes les conditions.
0 2 4 6 8 10 12
x 10
4
1
0
1
2
3
4
5
6
7
taille de l chantillon
N
i
v
e
a
u

m
o
y
e
n
rms
kurtosis
skewness
facteur de crete
FIG. 4.2 Niveaux moyens des indicateurs temporel en fonction de la taille de
lchantillon.
Bovic Kilundu YEbondo 65 Travail de DEA, Mai 2004
4.5 Conclusion
4.5 Conclusion
De ltude faite dans ce chapitre, nous retenons les aspects suivants :
1. le ltrage des signaux dans des gammes de frquences spciques et choisies
adquatement permet de dduire dans le domaine temporel des indicateurs
conduisant une distinction amliore des classes et niveaux de dfauts ;
2. lexploitation des donnes provenant de plusieurs points de mesure conduit
des rsultats meilleurs par rapport ceux obtenus partir des donnes dun
seul canal ;
3. la structure du rseau de neurones utilise ici est trs complexe, ceci peut sex-
pliquer par la taille de lchantillon qui nest pas trs grande. Un rseau trs
simple a alors difcile dcouvrir des rgles dans ces donnes ;
4. il est important de rduire la dimension de lespace dindicateurs pour faciliter
lapprentissage ;
5. bien que le facteur de crte et le kurtosis soient tous sensibles la forme du
signal, le kurtosis est un meilleur indicateur puisque la dispersion des rsultats
obtenus par mesures successives (ou par blocs successifs de signal), est plus
faible pour le kurtosis.
Bovic Kilundu YEbondo 66 Travail de DEA, Mai 2004
Chapitre 5
Rduction dimensionnelle de lespace
des indicateurs
5.1 Rapport de dimensionnalit
Il a t prouv exprimentalement quen augmentant le nombre dindicateurs
les performances de classication peuvent se trouver sensiblement dgrades [43].
Les capacits de gnralisation dun classicateur oprant dans un espace dindica-
teurs de grande dimension sont moins bonnes par rapport celles dun classicateur
oprant dans un espace de faible dimension.
Cest seulement quand le nombre de cas, n, est largement suprieur au nombre
dindicateurs, d, que lon peut esprer que le classicateur aura une bonne capacit
de gnralisation. Le rapport n/d est appel rapport de dimensionnalit.
Le choix de ce rapport a t tudi par plusieurs auteurs. Nous pouvons rete-
nir quen gnral un rapport de dimensionnalit au moins gal 3 est recommand
[40] [41] [42] [43].
Il est ncessaire, pour une meilleure classication, de procder une rduction
dimensionnelle de lespace dindicateurs. Deux voies se prsentent pour la rduction
du nombre dindicateurs :
effectuer un choix de quelques indicateurs sur un ensemble dindicateurs
pralablement slectionns. Le principe est de partir dun espace dindica-
teurs de grande dimension et den rduire la dimension en ne retenant que
67
5.2 Lanalyse en composantes principales (ACP)
les indicateurs qui prsentent des aptitudes de discrimination. Cette proc-
dure nest pas vidente en pratique, car on ne sait jamais dnir a priori les
indicateurs pertinents.
la seconde voie consiste en une projection de lespace dindicateurs de ma-
nire en rduire la dimension. La technique la plus utilise est lanalyse en
composantes principales.
5.2 Lanalyse en composantes principales (ACP)
LACP est une mthode de transformation des donnes qui consiste trouver
une base orthogonale de lespace des indicateurs dont les dimensions sont dter-
mines par les directions selon lesquelles les donnes changent rapidement. LACP
permet donc dabord de passer dun ensemble X de vecteurs X
1
, X
2
, ..., X
m
un en-
semble Y de vecteurs Y
1
, Y
2
, ..., Y
m
, tous de dimension p. Les composantes des vec-
teurs X
i
sont les variables dorigine et celles des vecteurs Y
i
, les facteurs ou scores
factoriels. Il importe que les nouvelles variables ne prsente aucun degr de redon-
dance dans linformation quelles vhiculent. Il sagira ensuite de ne retenir dans Y
que quelques vecteurs qui rpondront un critre informationnel.
LACP procde cette transformation de la faon la plus simple possible, cest
dire linairement. Les facteurs sont, en effet, construits comme combinaisons linaires
des variables et rciproquement. Dans ce contexte linaire, la condition de non redon-
dance de la liste de facteurs sexprime alors par la condition de non-corrlation des
facteurs entre eux ; lutilisation de la dcomposition spectrale, appliqu la matrice des
covariances de X, .
Lide de base dans une ACP est quune grande information correspond une
grande variance. Il faudra transformer X en Y = A
T
X, en choisissant A de telle ma-
nire que Y ait la plus grande variance possible. La matrice A contient les coef-
cients des combinaisons transformant les variables de dpart en facteurs. On choisit
A comme la matrice orthogonale qui intervient dans la dcomposition spectrale de la
matrice , cest donc la matrice des vecteurs propres [26].
On montre que la direction de variance maximumest parallle au vecteur propre
correspondant la plus grande valeur propre de la matrice . Les vecteurs propres
Bovic Kilundu YEbondo 68 Travail de DEA, Mai 2004
5.2 Lanalyse en composantes principales (ACP)
de peuvent donc servir la construction de nouveaux axes vus comme une rotation
du systme original.
La variance lie au premier axe sera la plus grande, elle sera suivie de celle du second
axe et ainsi de suite.
En pratique la matrice nest pas connue, on utilise alors la matrice de cova-
riance S calcule sur lchantillon.
S =
1
m 1
m

j=1
(X
j


X)(X
j


X)
T
(5.1)
o

X =
1
m

j
X
j
Si lon note
les valeurs propres de S par
1

2
...
p
0
les vecteurs propres correspondant
1
,
2
, ...
p
par e
1
, e
2
, ..., e
p
respective-
ment
Les axes principaux sont choisis de faon avoir un systme orthonorm, cest--dire
e
i
e
T
j
=
_
1 (i = j)
0 (i = j)
La transformation est dnie comme suit
Y =
_

_
e
T
1
e
T
2
.
.
.
e
T
p
_

_
X = E
T
X (5.2)
o E est la matrice des vecteurs propres et correspond la matrice A dcrite ci-haut.
Le vecteur Y
i
est tel que ses composantes ne sont pas corrles entre elles. LACP
peut tre donc vue comme une moyen dobtenir des indicateurs non corrls.
Les vecteurs Y
i
sont caractriss par le fait que la plus grande partie du contenu
informationnel est stocke dans les quelques premires composantes seulement.
On peut donc ne considrer quun nombre relativement rduit dindicateurs
pour la classication et amliorer ainsi les performances du classicateur.
Bovic Kilundu YEbondo 69 Travail de DEA, Mai 2004
5.2 Lanalyse en composantes principales (ACP)
5.2.1 Normalisation
Le processus dapprentissage des rseaux de neurones peut tre plus efcace
si certains prtraitements sont effectus sur les entres et sur les cibles. La normali-
sation est un traitement qui permet dviter que les indicateurs qui ont de grandes
valeurs naient dinuence plus grande les autres. La normalisation simpose encore
davantage si les indicateurs nont pas tous la mme unit.
Un autre avantage de la normalisation, cest lallgement de la tche dappren-
tissage qui se traduit par une rduction sensible du temps dapprentissage. Deux
manires de normaliser les donnes sont possibles :
1. La normalisation proprement dite :
Les entres et les cibles sont toutes remises dans la plage [-1, 1]. Le vecteur
normalis x
n
est obtenu du vecteur original x par
x
n
= 2
[x min(x)]
[max(x) min(x)]
1 (5.3)
min(x) et max(x) sont respectivement la plus petite et la plus grande compo-
sante de x
2. La standardisation :
Cette approche normalise la moyenne et lcart-type de lensemble dapprentis-
sage de telle manire quaprs le traitement la moyenne soit nulle et lcart-type
gale 1. Le vecteur standardis x
n
est obtenu du vecteur original x par
x
n
=
[x moy(x)]
std(x)
(5.4)
o moy(x) est la moyenne de x et std(x), son cart-type.
Dans une analyse en composantes principales la standardisation est un pra-
lable.
5.2.2 Saturations, communalits et variance explique
La relation entre les variables brutes ou standardises et les facteurs est explici-
te dans une matrice dite de structure ou des saturations (factor matrix) de composantes
Bovic Kilundu YEbondo 70 Travail de DEA, Mai 2004
5.2 Lanalyse en composantes principales (ACP)
L
j
(factor loadings). Les composantes de L sont les corrlations entre les variables
brutes ou standardises et les facteurs.
La matrice des saturations L a les proprits suivantes :
1. h
2
j
=

p
=1
L
2
j
= 1 (j = 1, ..., p)
La somme des carrs de toutes les saturations pour une variable donne vaut 1.
Cette quantit est appele communalits ou communaut. Comme le plus souvent,
les objectifs de lACP sont la condensation de linformation, on ne conservera
pas tous les p facteurs, mais seulement les k premiers (k < p), ceux dont la
variance

est la plus grande. De cette faon les communalits sont alors in-
frieures lunit. De fait, h
2
j
mesure la proportion de variance de la variable
j explique par les k premiers facteurs, et constitue une mesure locale de la
qualit dune ACP, variable par variable ;
2.

p
j=1
L
2
j
=

( = 1, ..., p)
La somme des carrs de toutes les saturations pour un facteur donn vaut

,
sa variance.
5.2.3 Choix de la dimension effective
Le choix du nombre de facteurs retenir est un compromis adopter entre les
objectifs opposs de "conservation de linformation" et "de simplication de linfor-
mation". Il existe plusieurs faons de dterminer le nombre de composantes requis
pour garder une reprsentation adquate des donnes. Nous en citerons quelques
unes :
1. proportion explique de la variance par les k premiers facteurs : cette mthode
propose de sommer les variances des k premires composantes principales et
de diviser cette somme par la somme de toutes les variances. En gnral, les
composantes qui donnent une proportion dau moins 75%sont sufsantes pour
reprsenter les donnes :

k
=1

p
=1

0, 75 (5.5)
Bovic Kilundu YEbondo 71 Travail de DEA, Mai 2004
5.2 Lanalyse en composantes principales (ACP)
2. proportion explique de la variance par le facteur : on slectionne les compo-
santes principales qui expliquent un certain pourcentage de la variance to-
tale, par exemple 2% au minimum. Cest le critre implment dans la fonction
"prepca " du "Neural Network Toolbox" de Matlab que nous avons utilis dans
nos travaux :
frac_var() =

p
=1

(5.6)
Pout illustrer cette mthode, la gure 5.1 les rsultats obtenus avec nos donnes
traites dans le domaine temporel.
0 10 20 30 40 50 60
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.1
Scores factoriels C
o
n
t
r
i
b
u
t
i
o
n

i
n
d
i
v
i
d
u
e
l
l
e

d
e
s

f
a
c
t
e
u
r
s


l
a

v
a
r
i
a
n
c
e

t
o
t
a
l
e
Minimum de 2%
Facteurs rejeter
Facteurs retenus
FIG. 5.1 Proportion de la variance totale individuellement explique par chacun des
facteurs.
3. moyenne des variances : la direction sera considre sans importance si

<

,
o

=
1
p

p
=1

est la moyenne des variances ou simplement ce que serait la


variance si toutes les directions taient galement importantes. Cest le critre
de Guttman-Kaiser.
4. scree Test : on utilise, ici, le graphique des

en fonction de . L o la courbe
devient plate, cest l que la variation devient alatoire, donc sans structure. on
ne gardera alors que les valeurs propres apparaissant avant le coude (critre de
Cattell)
Bovic Kilundu YEbondo 72 Travail de DEA, Mai 2004
5.3 Les rotations en analyse en composantes principales
5.3 Les rotations en analyse en composantes principales
Les facteurs sont des abstractions mathmatiques et ne possdent aucune si-
gnication intuitive. Leur interprtation nest pas souvent aise, mais elle peut tre
srieusement facilite si les saturations sont soit grandes (cest dire proche de 1),
soit proches de zro. Dans ce cas on saurait quelle(s) variable(s) correspondrait
principalement un facteur.
Pour ce faire, on peut procder une nouvelle transformation par rotation des
facteurs pour avoir chacune des variables associe un seul facteur. Plusieurs algo-
rithmes ont t dvelopps pour lobtention de la matrice de rotation, les plus utiliss
portent les noms de varimax, quartimax, ou equamax. Nous avons utilis dans ce travail
la mthode de rotation varimax propose par Kaiser en 1985 (Annexe D).
LACP, par ses diffrentes qualits, simpose donc dans le prtraitement des
donnes destines lalimentation dun rseau de neurones. Elle permet aussi lana-
lyse des contributions des indicateurs sur les performances de classication.
Bovic Kilundu YEbondo 73 Travail de DEA, Mai 2004
Chapitre 6
Seconde phase exprimentale.
Simulation de tous les dfauts.
6.1 Introduction
Dans le chapitre 4 nous avons tudi le cas de deux dfauts, le balourd et le
frottement. Cette tude nous a permis dtablir partiellement les effets des indica-
teurs, particulirement le rle perturbateur du facteur de crte. Nous en avons aussi
conclu le besoin dallger la complexit du rseau de neurones en terme de nombre
de couches et de neurones. Lutilisation de la fonction linaire en sortie du rseau
devrait aussi tre repense pour une utilisation de la fonction logsig qui est la mieux
adapte des problmes de classication.
Nous avons alors, dans le domaine temporel, construit un espace dindicateurs
sans le facteur de crte. Seuls la valeur efcace, le kurtosis et le skewness de lacc-
lration ont t utiliss. En ce qui concerne la sortie du neurone, les cibles devraient
tre construites de manire permettre lutilisation de la fonction logsig, cest ainsi
que nous avons dispos une sortie pour chaque niveau de dfaut.
Dans le prsent chapitre, nous allons considrer tous les 4 dfauts prvus pour
la campagne dessais. Nous navons pas procd la simulation de toutes les com-
binaisons possibles, mais des cas reprsentatifs de tous les dfauts ont t tudis.
Nous avons ainsi simul 162 conditions au lieu de 540 suggrs par le dcompte de
74
6.2 Architecture du rseau
toutes les combinaisons possibles. Ces 162 signaux ont t subdiviss chacun, comme
dans le chapitre 4, en quatre blocs, ce qui donne 648 signaux pour 162 conditions.
Trois quarts de ces donnes ont servi lapprentissage et un quart au test.
6.2 Architecture du rseau
Larchitecture du rseau de neurones a t labore progressivement en obser-
vant ses performances. Nous avons retenu un rseau de neurones rtropropagation
avec une seule couche cache contenant 80 neurones. Pour bncier compltement
de la puissance de la fonction logsig, nous navons plus constitu une sortie par d-
faut, mais une sortie par niveau de dfaut. De cette manire les sorties sont rgles
1 ou 0 selon quil y a ou non existence de ce niveau de dfauts. Mais il peut ar-
river quen rponse, le rseau de neurones reconnaisse sur une mme condition
la fois deux niveaux diffrents dun mme dfaut. Par exemple, le rseau entran
sur les indicateurs temporels bruits donne pour la condition B3F0R2A2 la sortie
B3B4F0F1R2A2. Pour palier cet inconvnient et par consquent amliorer les perfor-
mances du rseau de neurones, nous avons opt pour une comptition la sortie de
chaque type de dfaut. Les sorties obtenues, au lieu de subir une opration darron-
dissement, sont plutt passes en argument une fonction qui retourne une valeur
de 1 l o la sortie a sa valeur maximale et zro ailleurs. Cette opration est conduite
par lot sur des sorties correspondant un seul dfaut.
Larchitecture utilise pour le rseau de neurones est reprsente sur gure 6.1.
On y remarque une seule couche cache 80 neurones et une couche de sortie 14
neurones correspondant chacun aux 14 sorties diffrentes pour les 4 types de dfauts.
6.3 Les indicateurs du domaine temporel
6.3.1 Construction
Comme le fait ressortir la gure 3.3, des signaux ltrs dans les gammes de fr-
quence diffrentes sont extraits les indicateurs qui sont la valeur efcace, le kurtosis
Bovic Kilundu YEbondo 75 Travail de DEA, Mai 2004
6.3 Les indicateurs du domaine temporel
Balourd 0
Alignement 2
Alignement 1
Alignement 0
Roulement 2
Roulement 1
Roulement 0
Frottement 2
Frottement 1
Frottement 0
Balourd 4
Balourd 1
1 ou 0
1 ou 0
1 ou 0
1 ou 0
1 ou 0
1 ou 0
1 ou 0
1 ou 0
1 ou 0
ENTREES
Couche cache
(80 nuds)
Sorties
1 ou 0
1 ou 0
1 ou 0
FIG. 6.1 Architecture du rseau de neurones
Bovic Kilundu YEbondo 76 Travail de DEA, Mai 2004
6.3 Les indicateurs du domaine temporel
et le skewness . Ces indicateurs considrs pour tous les points de mesure servent
construire le vecteur dentre de dimension 48. Pour rduire la dimension du vecteur
dentre une analyse en composantes principales est effectue de manire produire
des donnes non corrles entre elles, ensuite il nest retenu que les directions prin-
cipales qui contribuent le plus la variation dans lensemble des donnes. Gnrale-
ment lanalyse en composantes principales exige une standardisation pralable des
donnes (entres et cibles). Mais, dans ce cas, comme les cibles sont binaires (0 ou 1),
il ne sest avr utile de standardiser que les entres avant lanalyse en composantes
principales.
Le choix de la dimension nale retenir a t dtermin par le principe de la
contribution individuelle des valeurs propres la variation totale des donnes, cest
ce que nous avons appel proportion explique de la variance par le facteur . Ici la
contribution xe 2% a assur aussi le respect de certains critres plus labors tel
que celui de la proportion explique de la variance (80% ici) ou le critre de Kaiser.
Ainsi, le vecteur dentre se trouve-t-il rduit la dimension 13.
6.3.2 Apprentissage et Analyse des performances
Donnes non bruites
Conduit avec des donnes non bruites, lapprentissage du rseau de neurones
sarrte 635 poques par atteinte du gradient minimum de 10
6
. Lerreur dappren-
tissage est de 0,001765. La gure 6.2 donne lvolution de lerreur dapprentissage en
fonction des poques.
145 des 162 conditions de fonctionnement prvues pour tester les performances
du rseau de neurones sont bien classies. Le taux de russite slve 89,5%.
On peut anayser les performances du rseau de neurones en examinant sortie
par sortie comment les cibles sont suivies par les rponses du rseau. Pour ce faire,
une rgression linaire est effectue sur les deux sries de valeurs. En effet, si A est
le vecteur des rponses obtenues sur une sortie et T le vecteur des valeurs attendues
sur cette mme sortie, la rgression linaire consiste trouver la meilleure droite qui
reprsente le nuage des points (A, T). Lcart de cette droite par rapport la droite
Bovic Kilundu YEbondo 77 Travail de DEA, Mai 2004
6.3 Les indicateurs du domaine temporel
0 100 200 300 400 500 600 700
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
Epoque
E
r
r
e
u
r
FIG. 6.2 Erreur dapprentissage
0 0.5 1
0
0.5
1
T
A
R = 0.982
Sortie(B0)
0 0.5 1
0
0.5
1
T
A
R = 0.874
Sortie(B1)
0 0.5 1
0
0.5
1
T
A
R = 0.822
Sortie(B2)
0 0.5 1
0
0.5
1
T
A
R = 0.924
Sortie(B3)
0 0.5 1
0
0.5
1
T
A
R = 0.799
Sortie(B4)
0 0.5 1
0
0.5
1
T
A
R = 0.974
Sortie(F0)
0 0.5 1
0
0.5
1
T
A
R = 0.974
Sortie(F1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F2)
0 0.5 1
0
0.5
1
T
A
R = 0.982
Sortie(R0)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(R1)
0 0.5 1
0
0.5
1
T
A
R = 0.975
Sortie(R2)
0 0.5 1
0
0.5
1
T
A
R = 0.976
Sortie(A0)
0 0.5 1
0
0.5
1
T
A
R = 0.984
Sortie(A1)
0 0.5 1
0
0.5
1
T
A
R = 0.984
Sortie(A2)
Data Points
Meilleure droite
A = T
FIG. 6.3 Corrlations entre entres et sorties. Indicateurs temporels non bruits
Bovic Kilundu YEbondo 78 Travail de DEA, Mai 2004
6.3 Les indicateurs du domaine temporel
de pente unit (A=T) constitue une mesure de la qualit de reconnaissance du dfaut
associ la sortie en question. Cet cart est exprim par le cofcient de corrlation
entre les deux sries.
On remarque, dans ce cas, un trs bonne suivi pour les autres sorties que le
balourd. En effet, pour le balourd on a une corrlation moyenne de 0,88 entre les
sorties et les cibles tandis que pour les autres conditions les corrlations sont quasi
unitaires. Nous remarquerons que dans cet espace dindicateurs cest le niveau de
balourd B4 qui est le moins bien catgoris, la gure 6.3 illustre bien ce constat.
Sur cette gure, les points situs sur la premire diagonale sont les points cor-
rectement reprsents :
valeur attendu= 0 et valeur obtenu= 0 ou
valeur attendu= 1 et valeur obtenu= 1 ;
tandis que ceux situs sur la seconde diagonale correspondent aux checs de recon-
naissance :
valeur attendu= 0 et valeur obtenu= 1 ou
valeur attendu= 1 et valeur obtenu= 0.
Donnes bruites
Le rseau de neurones dj entran avec des donnes non bruites subit ensuite
un entranement avec 10 sries diffrentes de donnes bruites. Pour sassurer que les
vecteurs non bruits restent toujours bien catgoriss, cet apprentissage est cltur
par un passage sur les donnes non bruites.
Une lgre dprciation du taux de bonne classication est observe par rapport
au rseau sans bruit : on passe de 89,5% 88,3%.
Contrairement au cas prcdent, le niveau B4 est relativement bien classi et
prsente un coefcient de corrlation de 0,810 contre 0,799 avant, mais il reste la sortie
qui prsente une faible performance (gure 6.4).
Bovic Kilundu YEbondo 79 Travail de DEA, Mai 2004
6.4 Les indicateurs du domaine frquentiel
0 0.5 1
0
0.5
1
T
A
R = 0.982
Sortie(B0)
0 0.5 1
0
0.5
1
T
A
R = 0.893
Sortie(B1)
0 0.5 1
0
0.5
1
T
A
R = 0.853
Sortie(B2)
0 0.5 1
0
0.5
1
T
A
R = 0.904
Sortie(B3)
0 0.5 1
0
0.5
1
T
A
R = 0.81
Sortie(B4)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(F0)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(F1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R0)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(R1)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(R2)
0 0.5 1
0
0.5
1
T
A
R = 0.951
Sortie(A0)
0 0.5 1
0
0.5
1
T
A
R = 0.954
Sortie(A1)
0 0.5 1
0
0.5
1
T
A
R = 0.984
Sortie(A2)
Data Points
Meilleure droite
A = T
FIG. 6.4 Corrlations entre entres et sorties. Indicateurs temporels bruits
6.4 Les indicateurs du domaine frquentiel
6.4.1 Construction
Des spectres frquentiels de 512 lignes sont calculs pour chaque signal. Le vec-
teur dentre pour une condition donne est construit avec les valeurs spectrales is-
sues des 4 points de mesure. Aprs rduction dimensionnelle sur le mme principe
de lanalyse en composantes principales, on passe dun vecteur de 2048 composants
un vecteur de 7 composants. Ceci prouve une forte corrlation entre les spectres
frquentiels des signaux vibratoires mesures en ces 4 points Z1,Y1,Z2 et Y2.
6.4.2 Apprentissage et Analyse des performances
Donnes non bruites
Lapprentissage conduit sur un rseau de neurones avec des donnes non brui-
tes a converg en 424 poques vers lobjectif derreur x 0,001. La gure 6.5
Bovic Kilundu YEbondo 80 Travail de DEA, Mai 2004
6.4 Les indicateurs du domaine frquentiel
0 50 100 150 200 250 300 350 400 450
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
Epoque
E
r
r
e
u
r

d
e

s
o
r
t
i
e
FIG. 6.5 Erreur dapprentissage
montre lvolution de lerreur dapprentissage aux cours des poques.
Le taux de russite dans la classication pour ce cas est de 96,91%. Lanalyse de
la rponse du rseau de neurones aux donnes de test peut tre ralise en faisant une
rgression linaire entre les sorties obtenues et les sorties dsires (cibles). On peut
remarquer que toutes les sorties, exceptes les sorties B1 et B2 et B3, prsentent une
corrlation proche de 1. Nanmoins, les balourds B1 et B2 ne peuvent pour autant
pas tre considrs comme mal reconnus et mal classis parce que les corrlations y
correspondant sont de 0,946 et 0,88 respectivement, donc assez leves. La gure 6.6
illustre comment les sorties suivent les cibles.
Donnes bruites
Lapprentissage aprs bruitage sur les indicateurs du domaine frquentiel donne
une performance de classication de 97,53%. Compar au cas des indicateurs non
bruits, une lgre dprciation est note sur la sortie B0 tandis que les sorties B2 et
B4 sont amliores. (gure 6.7)
Bovic Kilundu YEbondo 81 Travail de DEA, Mai 2004
6.4 Les indicateurs du domaine frquentiel
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(B0)
0 0.5 1
0
0.5
1
T
A
R = 0.946
Sortie(B1)
0 0.5 1
0
0.5
1
T
A
R = 0.88
Sortie(B2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(B3)
0 0.5 1
0
0.5
1
T
A
R = 0.962
Sortie(B4)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(F0)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(F1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A2)
Data Points
Meilleure droite
A = T
FIG. 6.6 Corrlations entre entres et sorties. Indicateurs frquentiels non bruits
0 0.5 1
0
0.5
1
T
A
R = 0.966
Sortie(B0)
0 0.5 1
0
0.5
1
T
A
R = 0.946
Sortie(B1)
0 0.5 1
0
0.5
1
T
A
R = 0.951
Sortie(B2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(B3)
0 0.5 1
0
0.5
1
T
A
R = 0.981
Sortie(B4)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(F0)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(F1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A2)
Data Points
Meilleure droite
A = T
FIG. 6.7 Corrlations entre entres et sorties. Indicateurs frquentiels bruits
Bovic Kilundu YEbondo 82 Travail de DEA, Mai 2004
6.5 Les indicteurs mixtes
6.5 Les indicteurs mixtes
6.5.1 Construction
Pour construire un vecteur dentre qui tiendrait compte des caractristiques
extraites et du temporel et du frquentiel, nous concatnons les deux vecteurs dindi-
cateurs temporels et frquentiels pour en faire un seul de dimension 2096. La dcon-
sidration, aprs analyse en composantes principales, des directions principales qui
ne reclent pas une grande quantit dinformation (cest dire qui contribuent pour
moins de 2% la variation) nous amne un vecteur dentre de dimension 7 .
6.5.2 Apprentissage et Analyse des performances
Donnes non bruites
Lapprentissage conduit sur un rseau de neurones avec des donnes non brui-
tes a converg en 487 poques vers lobjectif derreur x. La gure 6.8 montre lvo-
lution de lerreur dapprentissage en fonction des poques.
Le taux global de bonne classication est de 95,06%. De la rgression linaire
faite sur les sorties et les cibles, on remarquera ce qui suit : sur les sorties B0, B1,
B2 et B4 on observe quelques erreurs. B1 et B2 sont encore les seuls prsenter les
corrlations les plus faibles comme dans le cas des indicateurs frquentiels.
Donnes bruites
Avec le bruitage on obtient le taux de classication de 95,68% mais avec une
lgre dprciation de la corrlation sur les sorties de balourd F1 et F2, les balourds
sont mieux classs par rapport au cas prcdent.( gure 6.10)
6.6 Synthse et discussion
Lexamen de ces rsultats montre que, dans ce cas, le bruitage napporte pas
un changement sensible la performance du rseau de neurones. Ce constat est une
Bovic Kilundu YEbondo 83 Travail de DEA, Mai 2004
6.6 Synthse et discussion
0 50 100 150 200 250 300 350 400 450 500
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
Epoque
E
r
r
e
u
r

d
e

s
o
r
t
i
e
FIG. 6.8 Erreur dapprentissage
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(B0)
0 0.5 1
0
0.5
1
T
A
R = 0.928
Sortie(B1)
0 0.5 1
0
0.5
1
T
A
R = 0.976
Sortie(B2)
0 0.5 1
1
0
1
2
T
A
R = 1
Sortie(B3)
0 0.5 1
0
0.5
1
T
A
R = 0.944
Sortie(B4)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F1)
0 0.5 1
0
1
2
T
A
R = 1
Sortie(F2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R0)
0 0.5 1
1
0
1
T
A
R = 1 Sortie(R1)
0 0.5 1
1
0
1
2
T
A
R = 1
Sortie(R2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A0)
0 0.5 1
0
1
2
T
A
R = 1
Sortie(A1)
0 0.5 1
0
1
2
T
A
R = 1
Sortie(A2)
Data Points
Best Linear Fit
A = T
FIG. 6.9 Corrlations entre entres et sorties. Indicateurs mixtes non bruits
Bovic Kilundu YEbondo 84 Travail de DEA, Mai 2004
6.6 Synthse et discussion
0 0.5 1
0
0.5
1
T
A
R = 0.964
Sortie(B0)
0 0.5 1
0
0.5
1
T
A
R = 0.928
Sortie(B1)
0 0.5 1
0
0.5
1
T
A
R = 0.951
Sortie(B2)
0 0.5 1
0
0.5
1
T
A
R = 0.981
Sortie(B3)
0 0.5 1
0
0.5
1
T
A
R = 0.944
Sortie(B4)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F0)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(F1)
0 0.5 1
0
0.5
1
T
A
R = 0.984
Sortie(F2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A2)
Data Points
Meilleure droite
A = T
FIG. 6.10 Corrlations entre entres et sorties. Indicateurs mixtes bruits
preuve dune bonne cohrence des donnes. En effet dans le cas o les donnes se-
raient bruites ou tronques, le rseau bruit afcherait de meilleurs rsultats.
Les indicateurs issus du domaine frquentiel assurent une classication meilleure
que ceux issus du domaine temporel. Les vecteurs dindicateurs mixtes semblent
avoir hrit des capacits des deux types dindicateurs : les temporels et les frquen-
tiels ; ils donnent des rsultats intermdiaires mais sont plus performants par rapport
aux temporels. Les vecteurs des indicateurs frquentiels et mixtes, aprs rduction
dimensionnelle, prsentent une dimension de 7 alors que celui des indicateurs tem-
porels a une dimension de 13. Ceci laisse supposer une corrlation entre certains
indicateurs temporels et les indicateurs frquentiels.
Le tableau 6.1 synthtise les rsultats obtenus dans les diffrents espaces din-
dicateurs avec des donnes bruites ou non.
Compars aux rsultats de la premire phase exprimentale, les rsultats ob-
tenus ici sont trs amliors. Lorganisation dune sortie par niveau pour chaque
type de dfaut et lutilisation des fonctions sigmodes que cela entrane, explique
en grande partie cette amlioration. Il faut aussi souligner la taille de lensemble des
Bovic Kilundu YEbondo 85 Travail de DEA, Mai 2004
6.6 Synthse et discussion
Indicateurs Pk(temporel) Pxx(frquentiel) Pmixt(mixte)
Donnes Normales Bruites Normales Bruites Normales Bruites
B0 0,982 0,982 1 0,966 0,947 0,964
B1 0,874 0,893 0,946 0,946 0,872 0,928
B2 0,822 0,853 0,88 0,951 0,906 0,951
B3 0,924 0,903 1 1 1 0,981
B4 0,779 0,810 0,962 0,981 0,962 0,944
F0 0,974 0,987 0,987 0,987 1 1
F1 0,974 0,987 0,987 0,987 1 0,987
F2 1 1 1 1 1 0,984
R0 0,982 1 1 1 1 1
R1 0,987 0,987 1 1 1 1
R2 0,975 0,987 1 1 1 1
A0 0,976 0,951 1 1 1 1
A1 0,984 0,954 1 1 1 1
A2 0,984 0,984 1 1 1 1
Taux( %) 89,51 88,28 96,91 97,53 95,06 95,68
TAB. 6.1 Taux de classication et Corrlation entre sorties dsires et sorties obte-
nues.
Bovic Kilundu YEbondo 86 Travail de DEA, Mai 2004
6.6 Synthse et discussion
donnes et larchitecture du rseau de neurones parmi les facteurs qui ont inuenc
les performances de la classication.
Bovic Kilundu YEbondo 87 Travail de DEA, Mai 2004
Chapitre 7
Analyse de linuence des indicateurs.
Comme les rseaux de neurones construits prsentent des capacits de classi-
cation satisfaisantes, nous allons analyser lespace des indicateurs pour dterminer
les variables les plus prpondrantes, donc les indicateurs les plus pertinents pour la
reconnaissance des dfauts.
7.1 Dmarche
La dmarche que nous nous sommes propose de suivre est base sur lanalyse
en composantes principales. Elle consiste rechercher les contributions des variables
initiales aux scores factoriels (variables transformes). Pour ce faire, nous analyserons
la manire dont les scores factoriels utiliss comme entre des rseaux de neurones
sont corrls avec les variables brutes. En effet, les scores factoriels qui sont des com-
binaisons linaires des variables initiales normalises ne laissent pas transparatre
vue doeil les contributions des variables initiales ; seul lexamen des saturations peut
permettre linterprtation des scores factoriels. Les saturations sont les corrlations
entre les variables dorigines normalises et les scores factoriels.
Une rotation judicieusement choisie des axes principaux permet dobtenir des
saturations proches de 1, -1 ou 0, ce qui facilite linterprtation des facteurs obtenus.
88
7.2 Analyse des indicateurs temporels
7.2 Analyse des indicateurs temporels
7.2.1 Matrice des saturations
Une premire analyse sur la matrice des saturations des indicateurs du domaine
temporel conduit relever que les facteurs 1, 2, 3, 4 et 5 prsentent les plus fortes
corrlations avec les variables de dpart tandis que les autres facteurs sont les moins
corrls avec les variables initiales. Les graphiques de la gure 7.1 reprsentent la
corrlation de chaque facteur avec les variables dorigine.
Un examen pouss des graphiques de la gure 7.1 montre que seul le facteur 2
est le plus corrl avec des variables initiales suivi du facteur 1.
En analysant, par exemple, le facteur 2 (gure 7.2), on peut remarquer que les
variables 5, 17, 29, 41 dune part et 6, 18, 30, et 42 dautre part sont les plus signica-
tifs et sopposent sur laxe de ce facteur. La premire srie de variables qui prsente
des saturations ngatives correspond aux kurtosis de la gamme 0-30 Hz pour les 4
points de mesure tandis que la deuxime srie qui prsente des saturations positives
correspond aux skewness dans la mme gamme frquentielle pour les 4 points de
mesure.
Lanalyse du facteur 1 rvle, quant elle, une forte contribution des valeurs ef-
caces des hautes frquences et du signal global. La contribution du point de mesure
Y2 est ngligeable dans ce cas par rapport aux autres. Les saturations lies ces va-
leurs efcaces sont toutes ngatives.
7.2.2 Rotation
Nous procdons ici lextraction des informations non plus partir de la ma-
trice des saturations initiale mais partir de celle obtenue aprs rotation par le critre
varimax. La rotation amliore la reprsentation des variables dans lhypersphre des
corrlations. Les variables les mieux reprsentes auront une communalit proche
de lunit. En observant les graphiques de la gure 7.4, nous remarquons que par
rapport la reprsentation avant rotation dautres variables viennent se rvler avec
Bovic Kilundu YEbondo 89 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
0 50
0
0.5
1
facteur 1
0 50
0
0.5
1
facteur 2
0 50
0
0.5
1
facteur 3
0 50
0
0.5
1
facteur 4
0 50
0
0.5
1
facteur 5
0 50
0
0.5
1
facteur 6
0 50
0
0.5
1
facteur 7
0 50
0
0.5
1
facteur 8
0 50
0
0.5
1
facteur 9
0 50
0
0.5
1
facteur 10
0 50
0
0.5
1
facteur 11
0 50
0
0.5
1
facteur 12
0 50
0
0.5
1
facteur 13
FIG. 7.1 Valeurs absolues des saturations. En abscisse sont repris les indicateurs
temporels et en ordonnes les valeurs absolues des corrlations de ces indicateurs
avec le facteur considr
Bovic Kilundu YEbondo 90 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
facteur 2
Variable
S
a
t
u
r
a
t
i
o
n
s
variable 5
variable 17
variable 29
variable 41
variable 42
variable 30
variable 6
variable 18
FIG. 7.2 Saturations pour le facteur2
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
facteur 2
Variable
S
a
t
u
r
a
t
i
o
n
s
variable 1
variable 10
variable 13 variable 22
variable 25
variable 25
FIG. 7.3 Saturations pour le facteur1
Bovic Kilundu YEbondo 91 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
0 50
0
0.5
1
facteur 1
0 50
0
0.5
1
facteur 2
0 50
0
0.5
1
facteur 3
0 50
0
0.5
1
facteur 4
0 50
0
0.5
1
facteur 5
0 50
0
0.5
1
facteur 6
0 50
0
0.5
1
facteur 7
0 50
0
0.5
1
facteur 8
0 50
0
0.5
1
facteur 9
0 50
0
0.5
1
facteur 10
0 50
0
0.5
1
facteur 11
0 50
0
0.5
1
facteur 12
0 50
0
0.5
1
facteur 13
FIG. 7.4 Saturations en valeurs absolues aprs rotation
Facteur Variables Indicateurs
1 1,10,13,22,25,34,37,46 RMS global et RMS haute frquence(300-2000 Hz)
2 5,6,17,18,29,30,41,42 Kurtosis et Skewness entre 0-30 Hz
3 2,11 Kurtosis global et haute frquence suivant Z1
4 4,16,40 RMS 0-30 Hz
5 Pas de bonne corrlation
6 23, 47 Kurtosis Haute frquence Y1 et Y2
7 33 Skewness 30-300 Hz sur Z2
8 3,15 Skewness global Z1 et Y1
9 26,35 Kurtosis global et haute frquence Z2
10 21 Skewness 30-300 Hz sur Y1
11 8 Kurtosis 30-300 Hz Z1
12 36 Skewness haute frquence Z2
13 12,24 Skewness haute frquence Z1 et Y1
TAB. 7.1 Variables fortes saturations aprs rotation
Bovic Kilundu YEbondo 92 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
de bonnes saturations. Le tableau 7.1 reprsente les diffrentes variables fortement
corrles avec les scores factoriels.
Si nous adoptons comme critre de choix des variables pertinentes une satura-
tion de plus de 90% en valeur absolue, nous ne retiendrons que les variables 5, 6, 17,
18, 41, 42 toutes expliques par le facteur 2, les variables 13, 22, 25, 34 expliques par
le facteur 1 et les variables 16 et 40 expliques par le facteur 4. Les mmes conclusions
peuvent tre tires en examinant les communalits des variables de la gure 7.5
0 5 10 15 20 25 30 35 40 45 50
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Variable
C
o
m
m
u
n
a
l
i
t

s
FIG. 7.5 Les communalits
7.2.3 Matrice de transformation
Lanalyse en composantes principales est une mthode linaire car les scores
factoriels sont des combinaisons linaires des variables initiales. Une autre manire
dexaminer la contribution des variables initiales sur les axes fort contenu infor-
mationnel consiste analyser les coefcients de cette combinaison linaire. Ces co-
efcients sont contenus dans une matrice dite matrice de transformation. Cest cette
matrice qui effectue la projection de lespace initial dindicateurs sur le nouvel espace.
Bovic Kilundu YEbondo 93 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
En regardant les lments de la matrice de transformation facteur par facteur, on
peut dterminer les indicateurs qui contribuent pour le plus la reconnaissance et
classication des dfauts. Les graphiques de la gure 7.6 font ressortir des scores fac-
toriels les indicateurs ci-dessous repris dans le tableau 7.2. Les indicateurs retrouvs
dans chacun des facteurs par lexamen de la matrice de transformation correspondent
bien ceux dtermins laide des saturations. On remarquera que plus le contenu
informationnel est grand dans le facteur, plus la cohrence entre les variables quil
contient est grande.
Il importe, pour dterminer les indicateurs pertinents pour la dtection et la
classication des dfauts mcaniques, de pouvoir tre en mesure de choisir de prime
abord les facteurs tudier. La cohrence dans les variables contenues par le fac-
teur reprsenterait un premier critre dans le cas de notre tude. Par cohrence, nous
entendons le fait que les variables prsents dans un facteur permettent leur regroupe-
ment en type bien dtermin. Dans la suite, nous allons tenir compte, pour le choix
des facteurs examiner, des poids synaptiques qui leur sont assigns lors de lap-
prentissage du rseau de neurones.
7.2.4 Examens des poids synaptiques
Lanalyse des saturations, communalits et des lments de la matrice de trans-
formation permet de dceler variables les mieux reprsentes par la projection. Dans
lanalyse qui prcde, nous avons considr, comme critre pour dterminer les in-
dicateurs pertinents, le degr de reprsentation de la variable au travers des scores
factoriels. Nous ne devons cependant pas ngliger le fait que lors de lapprentissage,
le rseau de neurones attribue aux diffrents facteurs, lentre, des poids qui cor-
respondent dans une certaine mesure leurs contributions la rponse du rseau de
neurone.
Il nous semble donc logique de proposer la construction dune mesure dimpor-
tance des scores factoriels qui tiendrait compte dune part du fait que leur importance
informationnelle est reprsente par leur valeur propre, et dautre part, du fait quen
tant quentre du rseau de neurones, ces facteurs ont une contribution qui dpend
des poids qui leur sont attribus lors de lapprentissage.
Bovic Kilundu YEbondo 94 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
0 50
0
0.5
facteur 1
0 50
0
0.5
facteur 2
0 50
0
0.5
facteur 3
0 50
0
0.5
facteur 4
0 50
0
0.5
facteur 5
0 50
0
0.5
facteur 6
0 50
0
0.5
facteur 7
0 50
0
0.5
facteur 8
0 50
0
0.5
facteur 9
0 50
0
0.5
facteur 10
0 50
0
0.5
facteur 11
0 50
0
0.5
facteur 12
0 50
0
0.5
facteur 13
FIG. 7.6 Elments de la matrice de transformation facteur par facteur (valeurs abso-
lues).
Bovic Kilundu YEbondo 95 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
Facteur Variables Indicateurs
1 1,10,13,22,25,34,37 RMS global e RMS haute frquence
2 5,6,17,18,29,30,41,42 Kurtosis et Skewness dans la gamme 0-30 Hz
3 2,11,35,47 Kurtosis global et haute frquence
4 4,16,28,40 RMS 0-30 Hz
5 3,15,20,32 Skewness global et Kurtosis 0-30 Hz
6 4,9,14,23,40,47 Pas de grande cohrence
7 27,32,33,39 Pas de grande cohrence
8 20,23,26,27 Pas de grande cohrence
9 2,3,8,26,35 Pas de grande cohrence
10 3,8,21,36,45 Pas de grande cohrence
11 2,8,11,24,48 Pas de grande cohrence
12 21,36 Pas de grande cohrence
13 12,24,36,45 Pas de grande cohrence
TAB. 7.2 Variables ayant des coefcient suprieurs 0,25 dans les combinaisons
linaires reprsentant les scores factoriels.
Pour analyser limportance des poids synaptiques, nous avons calcul, pour
chaque facteur, la moyenne des poids, ceux-ci considrs en valeur absolue. Nous
avons, en outre, estim quune entre trs pondrante devait non seulement prsen-
ter des poids assez levs en valeurs absolues mais aussi avoir ces valeurs sufsam-
ment bien regroupes autour de leur moyenne. Lcart-type, tant une mesure de la
dispersion autour de la moyenne, peut servir pour la dtermination du niveau de
regroupement des valeurs absolues des poids autour de leur moyenne. Plus lcart-
type est lev plus la dispersion est grande, ceci nous suggre donc de diviser la
moyenne par lcart-type pour avoir une mesure du degr dimportance.
Lintroduction de laspect de contenu informationnel dduit de lanalyse en
composantes principales pourra se faire en pondrant les valeurs obtenues ltape
prcdente par la contribution individuelle des facteurs la variance totale, par exemple.
On aboutit ainsi au degr dimportance des indicateurs dni comme suit :
d
i
=
mean[abs(IW
i
)]
std[abs(IW
i
)]
.

i

(7.1)
Bovic Kilundu YEbondo 96 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
o
mean, std et abs reprsentent respectivement le calcul de la moyenne, de lcart-
type et de la valeur absolue ;
IW
i
, le vecteur des poids synaptiques associs au facteurs i ;
d
i
, le degr dimportance du facteur i ;

i
, la valeur propre correspondant la direction principale i.
Les degrs dimportance pour chaque facteur sont donns dans la dernire co-
lonne du tableau 7.3 et reprsents sur la gure 7.7.
Ainsi dni, le degr dimportance permet de dterminer les scores factoriels les
plus pondrant dans la classication, donc les scores dont on extraira les indicateurs
pertinents pour la dtection des dfauts. Les facteurs 1 et 2 sont encore les seuls lus
inuants dans la classication.
De ceci nous pouvons donc conclure que les indicateurs reprsents suivant ces
deux axes sont les plus pertinents. Il sagit de :
la valeur efcace du signal global
la valeur efcace du signal haute frquence
du kurtosis en basse frquence (0-30 Hz)
et du skewness en basse frquence (0-30 Hz)
1 2 3 4 5 6 7 8 9 10 11 12 13
0
0.05
0.1
0.15
0.2
0.25
FIG. 7.7 Degr dimportance des facteurs
Bovic Kilundu YEbondo 97 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
Moyenne Variance Ecart-type d
i
FACTEUR 1 1,6248 1,6128 1,2700 0,2422
FACTEUR 2 1,1071 0,4954 0,7038 0,2432
FACTEUR 3 1,6095 1,7560 1,3252 0,1082
FACTEUR 4 1,7416 1,3623 1,1672 0,0998
FACTEUR 5 1,5640 1,1867 1,0894 0,0810
FACTEUR 6 1,4622 1,4602 1,2084 0,055868
FACTEUR 7 1,5147 1,308 1,1437 0,055219
FACTEUR 8 1,6603 1,3646 1,1682 0,050911
FACTEUR 9 1,7596 1,4725 1,2135 0,046273
FACTEUR 10 1,4442 1,437 1,1988 0,031932
FACTEUR 11 1,7067 1,5019 1,2255 0,035498
FACTEUR 12 1,2873 1,0064 1,0032 0,030932
FACTEUR 13 1,5157 1,3985 1,1826 0,026217
TAB. 7.3 Importance des facteurs avec considration des poids synaptiques
7.2.5 Vecteurs construits avec seuls les indicateurs pertinents
Ayant dtermin les indicateurs pertinents de lanalyse des saturations, de la
matrice de transformation et des poids synaptiques, nous allons examiner les capa-
cits dun classicateur qui serait construit dans un espace dindicateurs compos
uniquement de ces indicateurs. Ici, il sagira donc de construire des vecteurs dentre
dans lespace des valeurs efcaces des signaux globaux et haute frquence (300-2000
Hz), des Kurtosis et Skewness dans la gamme 0-30 Hz.
Aliment par les variables normalises contenues dans les facteurs 1 et 2 (ta-
bleau 7.1, le rseau de neurones prsente avec des donnes non bruites les perfor-
mances suivantes :
1. taux de bonne classication 93,8%;
2. les corrlations entre les sorties obtenues et les cibles sont illustres gure 7.8.
La classication obtenues est mme meilleure que celle ralise avec les scores
factoriels. Lespace dindicateurs ainsi construit est libr des bruits informationnels
insrs par les variables moins pertinents, ce qui explique lamlioration des rsultats.
Bovic Kilundu YEbondo 98 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
0 0.5 1
0
0.5
1
T
A
R = 0.931
Sortie(B0)
0 0.5 1
0
0.5
1
T
A
R = 0.964
Sortie(B1)
0 0.5 1
0
0.5
1
T
A
R = 0.874
Sortie(B2)
0 0.5 1
0
0.5
1
T
A
R = 0.942
Sortie(B3)
0 0.5 1
0
0.5
1
T
A
R = 0.926
Sortie(B4)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F0)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(F1)
0 0.5 1
0
0.5
1
T
A
R = 0.984
Sortie(F2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R2)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A2)
FIG. 7.8 Corrlations entre sorties et cibles dans le cas des variables temporelles
juges pertinentes
Bovic Kilundu YEbondo 99 Travail de DEA, Mai 2004
7.2 Analyse des indicateurs temporels
Entran avec des donnes bruites, le rseau de neurones prsente une classi-
cation de 95% dans cet espace dindicateurs. La manire dont les sorties suivent les
cibles est reprsente sur la gure 7.9
0 0.5 1
0
0.5
1
T
A
R = 0.966
Sortie(B0)
0 0.5 1
0
0.5
1
T
A
R = 0.947
Sortie(B1)
0 0.5 1
0
0.5
1
T
A
R = 0.9
Sortie(B2)
0 0.5 1
0
0.5
1
T
A
R = 0.942
Sortie(B3)
0 0.5 1
0
0.5
1
T
A
R = 0.962
Sortie(B4)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F1)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(F2)
0 0.5 1
0
0.5
1
T
A
R = 0.982
Sortie(R0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(R1)
0 0.5 1
0
0.5
1
T
A
R = 0.987
Sortie(R2)
0 0.5 1
0
0.5
1
T
A
R = 0.988
Sortie(A0)
0 0.5 1
0
0.5
1
T
A
R = 1
Sortie(A1)
0 0.5 1
0
0.5
1
T
A
R = 0.984
Sortie(A2)
Data Points
Meilleure droite
A = T
FIG. 7.9 Corrlations entre sorties et cibles dans le cas des variables temporels jugs
pertinents. Donnes bruites.
Dans le cas bruit et non bruit les corrlations sont diffrentes de lunit pour
les sorties de balourd. Ceci pourrait sexpliquer par le fait que la plus grande nergie
due ce phnomne est contenue dans les basses frquences. Donc, comme les indi-
cateurs pertinents repris ici sont tirs du signal global et du signal haute frquence,
les phnomnes ayant lieu en basse frquence seront moins bien reprsents par rap-
port aux autres.
Bovic Kilundu YEbondo 100 Travail de DEA, Mai 2004
7.3 Analyse des indicateurs frquentiels
7.3 Analyse des indicateurs frquentiels
Des graphiques de la gure 7.10 on voit que les facteurs 1 et 2 sont les plus
corrls avec les variables dorigine.
0 500 1500 2000
1
0
1
facteur 1
0 500 1500 2000
1
0
1
facteur 2
0 500 1500 2000
1
0
1
facteur 3
0 500 1500 2000
1
0
1
facteur 4
0 500 1500 2000
1
0
1
facteur 5
0 500 1500 2000
1
0
1
facteur 6
0 500 1500 2000
1
0
1
facteur 7
FIG. 7.10 Saturations des variables spectrales
La gure 7.11 qui reprend uniquement le facteur 1 rvle une meilleure repr-
sentation des composantes haute frquence (saturations suprieures 0,8 en valeur
absolue). Ces composantes sopposent sur laxe de ce facteur aux composantes basse
frquence dues aux balourds (1, 2 f
rot
; f
rot
tant la frquence de rotation).
Le facteur 2 contient plus les basses et les moyennes frquences, mais leur repr-
sentation est moins bonnes par rapport aux phnomnes haute frquence contenus
dans le facteur 1 (gure 7.12).
Une tude dindicateurs pertinents comme celle mene dans le domaine tempo-
rel serait dnue de tout sens dans le domaine frquentiel vu le nombre de variables
Bovic Kilundu YEbondo 101 Travail de DEA, Mai 2004
7.3 Analyse des indicateurs frquentiels
0 200 400 512 600 800 1024 1200 1400 1536 1800 2048
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Facteur 1
variables spectrales
s
a
t
u
r
a
t
i
o
n
s
Canal Z1 Canal Y1 Canal Z2 Canal Y2
Composantes haute frquence
FIG. 7.11 Saturations facteur 1. Remarquons que les hautes frquences sont les
mieux reprsentes.
0 200 400 512 800 1024 1200 1400 1536 1800 2048
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
variables spectrales
s
a
t
u
r
a
t
i
o
n
s
facteur 2
FIG. 7.12 Saturations facteur 2
Bovic Kilundu YEbondo 102 Travail de DEA, Mai 2004
7.4 Rsum
spectrales. Ici, on peut se contenter de la seule rduction dimensionnelle obtenue avec
lanalyse en composantes principales au lieu de tenter une quelconque extraction des
variables pertinentes, qui sont ici des raies spectrales.
Nous allons, nanmoins, tudier les degrs dimportance des scores factoriels
an de vrier les observations tablies dans la section prcdente. En utilisant cette
notion de degr dimportance, nous rejoignons ce que nous avions dj tabli sur base
des saturations : que le facteur 1 est celui dont on peut analyser le contenu informa-
tionnel an de voir quelles variables sont prpondrantes. Mais rappelons que cette
tude na pas cet objectif dans le domaine frquentiel ; en la menant nous voulions
vrier si le degr dimportance dni permet effectivement le choix des facteurs
examiner.
1 2 3 4 5 6 7
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
FIG. 7.13 Degr dimportance des facteurs
7.4 Rsum
Ltude qui a t effectue sous ce chapitre avait pour objectif de dterminer
dans un espace dindicateurs donn les variables qui inuencent le plus la dtection
et la classication des dfauts mcaniques. Cette tude recle un sens seulement dans
Bovic Kilundu YEbondo 103 Travail de DEA, Mai 2004
7.4 Rsum
Facteur Moyenne Variance Ecart-type d
i
Facteur 1 0,81972 0,43239 0,65756 0,47105
Facteur 2 0,99103 0,94424 0,97172 0,13825
Facteur 3 1,129 0,84786 0,92079 0,065452
Facteur 4 0,99463 0,77717 0,88157 0,047071
Facteur 5 0,6884 0,41071 0,64086 0,04066
Facteur 6 0,83844 0,44694 0,66854 0,042774
Facteur 7 1,0855 1,0079 1,0039 0,030398
TAB. 7.4 Importance des facteurs avec considration des poids synaptiques
le domaine temporel o nous avons dgag que pour les dfauts traits seuls les
indicateurs suivants taient pertinents, il sagit de :
la valeur efcace du signal global ;
la valeur efcace du signal ltr en haute frquence (300-2000 Hz) ;
le Kurtosis du signal ltr entre 0 et 30 Hz ;
le Skewness du signal ltr entre 0 et 30 Hz.
Lexamen du domaine frquentiel a rvl que la zone haute frquence avait la plus
grande inuence. On peut tablir un lien entre les conclusions tires dans le domaine
temporel et celles provenant du domaine frquentiel. En effet la valeur efcace dans
une bande frquentielle est lie au niveau dnergie contenu dans cette bande. Il est
donc comprhensible que linformation vhicule par les valeurs efcaces haute fr-
quence se retrouve dans les raies spectrales haute frquence.
Bovic Kilundu YEbondo 104 Travail de DEA, Mai 2004
Conclusions et perspectives
Conclusions
Les objectifs poursuivis dans ce travail taient dune part, dtudier lapplicabi-
lit des rseaux de neurones aux ns de dtection et de classication des dfaillances
mcaniques combines, et dautre part de dgager les indicateurs qui sont pertinents
pour une telle application. Dans ce but, nous avons dabord survol, dans la littra-
ture, les diffrentes tudes similaires en tablissant au pralable une base de com-
prhension du concept de rseau de neurones. Nous nous sommes particulirement
attard sur le problme crucial du choix dindicateurs issus de lanalyse vibratoire
et destins alimenter un rseau de neurones. Une fois tous ces aspects circonscrits,
nous avons prsent et discut les rsultats de nos expriences conduites sur un banc
dessais simulateur de dfauts mcaniques.
Les rsultats obtenus ont dgag, en premier lieu laspect que lutilisation des
rseaux de neurones dans le contexte du diagnostic mcanique ncessite la consid-
ration des mesures rcoltes en plusieurs points de la machine. Un diagnostic bas
sur un seul point de mesure conduit des performances mdiocres. Lanalyse dans le
domaine temporel sest rvle intressante seulement si elle est conduite sur des si-
gnaux ltrs dans des gammes de frquence adquatement choisies. En effet, lissue
de la premire phase de cette tude, les performances obtenues dans la classication,
et reprises dans le tableau ci-dessous, justient quau cours de la seconde phase nous
nayons travaill quavec les signaux ltrs et considr tous les quatre canaux.
1 Canal 4 Canaux
Filtr 50 % 83 %
Non ltr 33 % 75 %
105
Conclusions et perspectives
Le domaine frquentiel a t expriment dans la seconde phase de ltude. Il
a fourni des capacits de reconnaissance de dfauts trs satisfaisantes : 97,5 % de re-
connaissance. Lcart davec le taux de classication de 89,5 % obtenu lors de cette
phase pour les indicateurs temporels est trs remarquable. La construction dun es-
pace dindicateurs compos la fois des indicateurs spectraux et temporels a abouti
un taux de classication intermdiaire entre ceux donns par les deux types dindi-
cateurs prcdents : 95,7 %.
Dans la seconde phase, le bruitage des donnes lentre du rseau de neurones
na pas aussi inuenc les rsultats quau cours de la premire phase. Pour les indi-
cateurs frquentiels, par exemple, lamlioration du taux de classication na t que
de 0,6 % alors que des amliorations de 15% ont t possibles avec les donnes de la
premire phase. Cependant, rappelons quaucun rsultat obtenu lors de la premire
phase na gal ceux de la seconde. Nous avons suppos que cette faible inuence
du bruitage devrait tre due une bonne cohrence des donnes vu que la taille de
lensemble dapprentissage a t sensiblement augmente par rapport la premire
phase : 144 contre 648.
La structure du rseau de neurones utilis ainsi que le prtraitement des don-
nes se sont afrms comme deux facteurs trs inuants dans loptimisation des per-
formances de classication. La structure disposant une sortie binaire pour chaque
niveau de dfauts et appuye par un processus de comptition est la mieux adapte
dans ce type de problme. Le prtraitement qui abouti une rduction dimension-
nelle a allg lapprentissage et amlior les rsultats.
Lanalyse en composantes principales qui a conduit cette rduction dimen-
sionnelle, a aussi permis un examen des espaces dindicateurs an de dterminer les
indicateurs qui disposaient dune grande capacit de discrimination de dfauts et de
leurs niveaux. Cet examen a t procd en nous basant sur les notions de satura-
tions, de communalits et de matrices de transformation. Une approche intgrant les
poids synaptiques a aussi t propose dans lanalyse de linuence des indicateurs.
Les conclusions auxquelles nous avons abouti sont identiques pour les diffrentes
approches et ont rvl, dans le domaine temporel, les indicateurs suivants comme
portant le plus grand poids dinformation discriminatoire entre classes de dfauts :
la valeur efcace du signal global ;
la valeur efcace du signal ltr en haute frquence (300-2000 Hz) ;
Bovic Kilundu YEbondo 106 Travail de DEA, Mai 2004
Conclusions et perspectives
le Kurtosis du signal ltr entre 0 et 30 Hz ;
le Skewness du signal ltr entre 0 et 30 Hz.
La question de la taille de lchantillon pour la mise en oeuvre dun diagnostic
bas sur un rseau de neurones a t mis en vidence en comparant les rsultats ob-
tenus dans la premire phase exprimentale ceux de la seconde phase. Il est donc
souhaitable de considrer un assez vaste jeu de donnes pour sassurer la construc-
tion dun rseau de neurones efcace, ce qui peut tre une difcult dans certains
contextes industriels.
Une autre difcult dans lapplication industrielle des rseaux de neurones tels
quutiliss dans notre travail est le fait que ltat dune machine volue avec le temps.
Il peut alors tre intressant de construire un rseau de neurones pour chaque l-
ment de machine qui ncessite une surveillance particulire au lieu dun rseau ca-
pable de dtecter globalement les dfaillances de divers lments. Cependant, on
gardera toujours lesprit le fait que, dans leurs tats avancs, les dfauts peuvent
interagir et rendre ainsi la classication incertaine. En exemple, nous pouvons citer
le cas o un dsalignement conduit un balourd.
Une signature dun dfaut donn rcolte une certaine priode sera logique-
ment sans commune mesure avec ce mme dfaut exprim un ge avanc de la
machine. En effet, il est trs frquent que certains dfauts interagissent entre eux
leurs tats avancs.
Perspectives
A terme, il serait intressant quune tude similaire celle-ci soit mene avec
dautres mthodes de diagnostic an de comparer les rsultats ceux auxquels a
abouti ce travail. On pourra utiliser des mthodes de classication bases sur lintel-
ligence articielle ou non telles que les systmes experts, la logique oue, les arbres
de dcisions, ...
Lexploitation de ces mthodes combines dautres types dindicateurs qui
nont pas fait lobjet de ce travail peut tre souhaitable dans le but de dterminer,
Bovic Kilundu YEbondo 107 Travail de DEA, Mai 2004
Conclusions et perspectives
pour un type de problme donn, les indicateurs les mieux ddis. Les spectres para-
mtriques (Annexe F) et les statistiques suprieures (Annexe G) pourront tre consi-
drs cet effet.
Les tudes pourront ainsi concerner des cas industriels rels pour lesquels, ac-
tuellement, la disponibilit dune large base de donnes nest peut-tre pas aussi illu-
soire que lon pourrait le penser. En effet, lintroduction de la Gestion de la Mainte-
nance Assiste par Ordinateur (GMAO) a systmatis les rapports sur les analyses
de dfaillances. En outre, la surveillance des machines par lanalyse vibratoire sest
considrablement dveloppe dans beaucoup dindustrie ; les enregistrements prio-
diques systmatiques de plusieurs indicateurs sont en principe sauvegards. Hlas,
la mise en relation de ces deux jeux de donnes nest pas ralise en milieu industriel
lheure actuelle.
Le potentiel est large car les installations industrielles comptent plusieurs ma-
chines de mme type. Bien que chaque machine ait un comportement unique, au lieu
de considrer chaque machine individuellement, on peut concevoir une exploitation
des mesures rptes sur plusieurs machines semblables dans diverses conditions de
fonctionnement. Les informations ainsi rcoltes seront alors regroupes et traites
avec des techniques danalyse "intelligentes" des donnes adaptes aux chantillons
de grande taille. Parmi celles-ci, les techniques de "Data Mining" bases sur des m-
thodes dapprentissage fournissent un moyen dextraire les masses dinformations
implicites souvent emprisonnes sous forme brute dans les bases des donnes. La ca-
pacit de dgager les anomalies, les classes et les tendances savre prometteuse pour
la dtection et le diagnostic des dfauts mcaniques des machines tournantes.
Bovic Kilundu YEbondo 108 Travail de DEA, Mai 2004
Bibliographie
[1] D.J.Edwards,G.D.Holt : Predicting mechanical reliability using articial intellin-
gence :Neural networks handle multi-variable data easily. School of Engineering
and Built environnement, University of Wolverhampton,U.K
[2] M.Baseville, A.Benveniste, Q.Zhang : Surveillance dinstallations industrielles :
dmarche et conception de lalgorithme, Rapport de recherche n2889, INRIA,
1996
[3] A.Boulenger,C. Pachaud : Analyse vibratoire en maintenance :Surveillance et
diagnostic des machines,2
e
dition, Dunod, Paris, 2003
[4] F.S.Osrio : Un systme hybride neuro-symbolique pour lapprentissage auto-
matique constructif. thse de doctorat, Institut National Polytechnique de Gre-
noble, 1998.
[5] Amit Konar : Articial intelligence and soft computing : Behavioural and cogni-
tive modelling of the human brain.CRC Press,NY,2000.
[6] M.Serridge : Ten crucial concepts behind trustworthy fault detection in machine
condition monitoring, Proceedings of the 1st International machinery monito-
ring and diagnostics conference and exhibit, Las Vegas, NV, 1989, 722-727
[7] Lapp S.A..Powers G.A. : Computer-aided synthesis of fault-trees, IEEE
Trans.Reliability,37, 2-13,1977.
[8] Zwingelstein G. : Diagnostic des dfaillances :Thorie et pratique pour les sys-
tmes industriels,Traits des Nouvelles Technologie, srie Diagnostic et Maite-
nance,Herms,1995
[9] Sourabh D.,Venkatsubramanian V. : Challenges in the industrial applications of
faults diagnostic system,
109
Bibliographie
[10] Dujardin A.S. : Pertinence dune approche hybride multineuronale dans la reso-
lution de problmes lis au diagnostic industriel ou mdical
[11] Zahner D.A. : Micheli-Tzanakou E.Articial neural networks :denitions, Me-
thods, Applications.
[12] M.Angels : Choosing accelerometers for machinery health monitoring, Sound
and Vibration (December 1990)20-24
[13] A.Ypma : learning methods for vibration analysis and health monitoring, PhD
thesis, Technische universiteit Delft, 2001
[14] A.C.McCormick : Cyclostationarity and higher-order stistiscal signal processing
for machine condition monitoring, PhD thesis, University of Strathclyde,1998
[15] C.Both,J.R.McDonald : The use of articial networks for condition monitoring of
electrical power transformers, Neurocomputing 23 (1998) 97-109
[16] S.Rangwala,D.Dornfeld : Sensor integration using neural networks for intelli-
gent tool condition monitoring, Transactions of the ASME, Journal of Enginee-
ring for Industry, vol. 112, 219-228, 1990
[17] R.J.Kuo,P.H.Cohen : Intelligent tool wear estimation system through articial
neural networks and fuzzy modelling, Articial Intelligence in Engineering,
12(1998), 229-242
[18] P.Dehombreux : Fiabilit et maintenance des quipements industriels, notes de
cours, Facult polytechnique de Mons, 2003.
[19] Guanglin Hou, P.Dehombreux, O. Basile : Intgration des concepts doptimisa-
tion dans la gestion de la maintenance base sur la abilit. Rapport scientique
OPTIMAIN, janvier 2004.
[20] Issam Abu-Mahfouz : Drilling wear detection and classication using vibration
signals and articial neural network, International Journal of Machine Tools and
Manufacture XX (2003) XXX-XXX
[21] L.X.Kong, S.Nahavandi : On-line tool condition monitoring and control system
in forging processes, Journal of Materials Processing Technology 125-126 (2002)
464-470
[22] D.Chang-Ching Lin, B.Hsu-Pin Wang : Performance analysis of rotating machi-
nery using enhanced cerebellar model articulation (E-CEMAC) neural networks.
Computers ind.Engng Vol.30, N2, pp227-242, 1996
Bovic Kilundu YEbondo 110 Travail de DEA, Mai 2004
Bibliographie
[23] S.C.Lin, R.J.Lin : Tool wear monitoring in face milling using force signals, Wear,
Vol.198, Nos.1-2, pp.136-142 (1996)
[24] A.C.McCormick, A.K.Nandi : Classication of the rotating machine condition
using articial neural networks,Proceedings of IMeschE :PartC, pp 439-450, Vol
211(6), 1997
[25] Venkatsubramanian V., R.Rengaswamy, S.N.Kavuri, K.Yen : A review of process
fault detection and diagnosis :Process history based methods, Computers and
Chemical Engineering 27 (2003) 327-346
[26] Michael Berthold, David J.Hand : Intelligent Data Analysis. 2nd ed, Springer,
Berlin, 2003.
[27] A.C.McCormick, A.K.Nandi : Neural network autoregressive modelling of vi-
brations for condition monitoring shafts. Signal Processing Division, Depart-
ment of Electronic and Electrical Engineering, University of Strathclyde,U.K.
[28] W.S. McCullosch, W. Pitts,A logical calculs of the ideas immanent in nervous
activity,Bulletin of Mathematical Biophysics,vol. 9,127-147,1943.
[29] H.Demuth,M.Beale, Neural Network Toolbox for use with Matlab.The Math-
Works, Natick, USA,2003
[30] Jolle Courrech, Ronald Eshleman : Condition monitoring of machinery. In Har-
ris shock and vibration handbook, p.16.1-16.25,5th edition, 2002
[31] C.Breneur : Elments de maintenance prventive de machines tournantes dans
le cas de dfauts combins dengrenages et de roulements, Thse de doctorat,
Institut National des Sciences Appliques de Lyon, dcembre 2002.
[32] S.Marple : Digital spectral analysis with applications. Prentice-Hall, 1987.
[33] J.K.Spoerre : Application of the cascade correlation algorithm (CCA) to bearing
fault classication problems. Computers in Industry 32 (1997) 295-304.
[34] R.Javadpour, G.M.Knapp : A fuzzy neural network approach to machine condi-
tion monitoring. Computers & Industrial engineering 45 (2003) 323-330
[35] G.K. Singh,S.A.Kazzaz : Induction machine drive condition monitoring and
diagnostic research-a survey. Electric Power Systems Research 64(2003) 145-158
[36] I.S.Koo, W.W.Kim : The development of reactor coolant pump vibration monito-
ring and a diagnostic system in nuclear power plant. ISA transactions 39 (2000)
309-316
Bovic Kilundu YEbondo 111 Travail de DEA, Mai 2004
Bibliographie
[37] A.Ypma, R.Ligteringen, E.E.E.Frietman, R.P.W.Duin : Recognition of bearing fai-
lures using wavelets and neural networks. Computational physics group, Delft
University of Technology, Netherlands.
[38] A.Papoulis : Probability, Random Variables, and Stochastic Processes. McGraw-
Hill, 1965.
[39] Signal Processing Toolbox for use with Matlab. The MathWorks, Natick,USA,
2002
[40] Fukunaga K. : Introduction to Statistical Pattern Recognition. Academic Press,
1990.
[41] Fukunaga K, Hayes RR : Effect of sample size in classier performance. IEEE
Tr.Patt.Anal.Mach.Intel., 11 :1087-1101, 1989.
[42] Jain AK, Chandrasekaran B : Dimensionality and sample size considerations in
pttern recognition. In :Krishnaiah Pr, Kanal LN (eds) Handbook of statistics, 2,
North Holland Pub.Co.,pp 835-855, 1989.
[43] Marqus de S J.P. : Applied Statistics using SPSS, STATISTICA and MATLAB.
Springer, Berlin 2003.
[44] Holstrom L, Koistinen P. : Using additive noise in backpropagation training.
IEEE Trans Neural Networks 3(1) :24, 1992.
[45] Gilles Fleury : Analyse spectrale. Mthodes non-paramtriques et param-
triques. Technosup, Ellipses Editions, Paris, 2001 ;
Bovic Kilundu YEbondo 112 Travail de DEA, Mai 2004
Annexes
113
Annexe A
Le banc dessais
114
Annexe B
Les dfauts traits exprimentalement
sur le banc dessais
Toutes les conditions de fonctionnement qui ont t traites sur le banc dessais
sont reprises ci-dessous. La vitesse 1 correspond une frquence de rotation de 25
Hz, la vitesse 2 20 Hz et la vitesse 3 une frquence de 22,5 Hz. La codication est
explique en 3.4.
115
Annexe B
VITESSE 1 VITESSE 2 VITESSE 3
1 H1B0F0R0A0 1 H2B0F0R0A0 1 H3B0F0R0A0
2 H1B0F0R1A0 2 H2B0F0R1A0 2 H3B0F0R1A0
3 H1B0F0R2A1 3 H2B0F0R2A1 3 H3B0F0R2A1
4 H1B0F0R2A2 4 H2B0F0R2A2 4 H3B0F0R2A2
5 H1B0F1R0A0 5 H2B0F1R0A0 5 H3B0F1R0A0
6 H1B0F1R1A0 6 H2B0F1R1A0 6 H3B0F1R1A0
7 H1B0F1R2A1 7 H2B0F1R2A1 7 H3B0F1R2A1
8 H1B0F1R2A2 8 H2B0F1R2A2 8 H3B0F1R2A2
9 H1B0F2R0A0 9 H2B0F2R0A0 9 H3B0F2R0A0
10 H1B0F2R1A0 10 H2B0F2R1A0 10 H3B0F2R1A0
11 H1B0F2R2A1 11 H2B0F2R2A1 11 H3B0F2R2A1
12 H1B0F2R2A2 12 H2B0F2R2A2 12 H3B0F2R2A2
13 H1B1F0R0A0 13 H2B1F0R0A0 13 H3B1F0R0A0
14 H1B1F0R1A0 14 H2B1F0R1A0 14 H3B1F0R1A0
15 H1B1F0R2A1 15 H2B1F0R2A1 15 H3B1F0R2A1
16 H1B1F0R2A2 16 H2B1F0R2A2 16 H3B1F0R2A2
17 H1B1F1R0A0 17 H2B1F1R0A0 17 H3B1F1R0A0
18 H1B1F1R1A0 18 H2B1F1R1A0 18 H3B1F1R1A0
19 H1B1F1R2A1 19 H2B1F1R2A1 19 H3B1F1R2A1
Bovic Kilundu YEbondo 116 Travail de DEA, Mai 2004
Annexe B
VITESSE 1 VITESSE 2 VITESSE 3
20 H1B1F1R2A2 20 H2B1F1R2A2 20 H3B1F1R2A2
21 H1B1F2R0A0 21 H2B1F2R0A0 21 H3B1F2R0A0
22 H1B1F2R1A0 22 H2B1F2R1A0 22 H3B1F2R1A0
23 H1B1F2R2A1 23 H2B1F2R2A1 23 H3B1F2R2A1
24 H1B1F2R2A2 24 H2B1F2R2A2 24 H3B1F2R2A2
25 H1B2F0R0A0 25 H2B2F0R0A0 25 H3B2F0R0A0
26 H1B2F0R1A0 26 H2B2F0R1A0 26 H3B2F0R1A0
27 H1B2F0R2A1 27 H2B2F0R2A1 27 H3B2F0R2A1
28 H1B2F0R2A2 28 H2B2F0R2A2 28 H3B2F0R2A2
29 H1B2F1R0A0 29 H2B2F1R0A0 29 H3B2F1R0A0
30 H1B2F1R1A0 30 H2B2F1R1A0 30 H3B2F1R1A0
31 H1B2F1R2A1 31 H2B2F1R2A1 31 H3B2F1R2A1
32 H1B2F1R2A2 32 H2B2F1R2A2 32 H3B2F1R2A2
33 H1B3F0R0A0 33 H2B3F0R0A0 33 H3B3F0R0A0
34 H1B3F0R1A0 34 H2B3F0R1A0 34 H3B3F0R1A0
35 H1B3F0R1A1 35 H2B3F0R1A1 35 H3B3F0R1A1
36 H1B3F0R2A2 36 H2B3F0R2A2 36 H3B3F0R2A2
37 H1B3F1R0A0 37 H2B3F1R0A0 37 H3B3F1R0A0
38 H1B3F1R1A0 38 H2B3F1R1A0 38 H3B3F1R1A0
39 H1B3F1R2A1 39 H2B3F1R2A1 39 H3B3F1R2A1
40 H1B3F1R2A2 40 H2B3F1R2A2 40 H3B3F1R2A2
41 H1B3F2R1A0 41 H2B3F2R1A0 41 H3B3F2R1A0
42 H1B3F2R1A1 42 H2B3F2R1A1 42 H3B3F2R1A1
43 H1B3F2R2A2 43 H2B3F2R2A2 43 H3B3F2R2A2
44 H1B4F0R0A0 44 H2B4F0R0A0 44 H3B4F0R0A0
Bovic Kilundu YEbondo 117 Travail de DEA, Mai 2004
Annexe B
VITESSE 1 VITESSE 2 VITESSE 3
45 H1B4F0R1A0 45 H2B4F0R1A0 45 H3B4F0R1A0
46 H1B4F0R1A1 46 H2B4F0R1A1 46 H3B4F0R1A1
47 H1B4F0R2A2 47 H2B4F0R2A2 47 H3B4F0R2A2
48 H1B4F1R0A0 48 H2B4F1R0A0 48 H3B4F1R0A0
49 H1B4F1R1A0 49 H2B4F1R1A0 49 H3B4F1R1A0
50 H1B4F1R1A1 50 H2B4F1R1A1 50 H3B4F1R1A1
51 H1B4F1R2A2 51 H2B4F1R2A2 51 H3B4F1R2A2
52 H1B4F2R1A0 52 H2B4F2R1A0 52 H3B4F2R1A0
53 H1B4F2R1A1 53 H2B4F2R1A1 53 H3B4F2R1A1
54 H1B4F2R2A2 54 H2B4F2R2A2 54 H3B4F2R2A2
Bovic Kilundu YEbondo 118 Travail de DEA, Mai 2004
Annexe C
Quelques spectres
0 250 500 750 1000 1250 1500 1750 2000 2250 2500
0
0.5
1
1.5
0 250 500 750 1000 1250 1500 1750 2000 2250 2500
0
0.5
1
1.5
0 250 500 750 1000 1250 1500 1750 2000 2250 2500
0
0.5
1
1.5
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 250 500 750 1000 1250 1500 1750 2000 2250 2500
0
0.5
1
1.5
0 250 500 750 1000 1250 1500 1750 2000 2250 2500
0
0.5
1
1.5
Frquence [Hz]
H1B1F1R2A2
H1B2F1R2A1
H2B0F2R0A0
H2B3F0R1A0
H3B4F2R2A2
119
Annexe C
0 250 500 750 1000 1250 1500 1750 2000 2250 2500
0
0.5
1
1.5
0 250 500 750 1000 1250 1500 1750 2000 2250 2500
0
0.5
1
1.5
0 250 500 750 1000 1250 1500 1750 2000 2250 2500
0
0.5
1
1.5
A
c
c

r
a
t
i
o
n

[
m
/
s

]
0 250 500 750 1000 1250 1500 1750 2000 2250 2500
0
0.5
1
1.5
0 250 500 750 1000 1250 1500 1750 2000 2250 2500
0
0.5
1
1.5
Frquence [Hz]
H1B2F1R2A1
H3B3F0R1A1
H3B1F2R1A0
H2B3F2R2A2
H2B4F1R1A0
Bovic Kilundu YEbondo 120 Travail de DEA, Mai 2004
Annexe D
La mthode Varimax en Analyse en
Composantes Principales
Dans une ACP linterprtation des saturations est aise si les variables peuvent
tre regroupes en diffrents ensembles, chacun tant associ un seul facteur. Pour
y arriver, on procde une rotation des saturations et la mthode Varimax est un des
algorithmes les plus utiliss.
Pour mieux illustrer, considrons le cas o lespace des facteurs a 2 dimensions.
Une matrice de rotation G est donne par
G() =
_
cos sin
sin cos
_
(D.1)
reprsentant une rotation dans le sens horaire du systme de coordonnes dun angle
. La nouvelle matrice des saturations est par
Lr = LG (D.2)
La mthode Varimax essaie de trouver langle de rotation qui maximise la somme des
variances des carrs des saturations. Ici est repris un code Matlab pour effectuer la
rotation varimax
% Marcus, 1993, in Reyment & Joreskog,
% Applied Factor Analysis in the Natural Sciences, CUP.
121
Annexe D
% This procedure follows algorithm as spelled out in
% Harman (1960) in Chapter 14, section 4. To run the
% program - the loadings are put in an array called
% lding.
% The notation follows Harman. The routine vfunct.m is
% called to compute the variance of the loadings
% squared.
lding=S;
b=lding;
[n,nf]=size(lding);
hjsq=diag(lding*lding); % communalities
hj=sqrt(hjsq);
vfunct % function to compute
% variances of loadings^2
V0=Vtemp;
for it=1:10; % Never seems to need very many iterations
for i=1:nf-1 % Program cycles through 2 factors
jl=i+1; % at a time.
for j=jl:nf
xj=lding(:,i)./hj; % notation here closely
yj=lding(:,j)./hj; % follows harman
uj=xj.*xj-yj.*yj;
vj=2*xj.*yj;
A=sum(uj);
B=sum(vj);
C=uj*uj-vj*vj;
D=2*uj*vj;
num=D-2*A*B/n;
den=C-(A^2-B^2)/n;
tan4p=num/den;
phi=atan2(num,den)/4;
angle=phi*180/pi;
Bovic Kilundu YEbondo 122 Travail de DEA, Mai 2004
Annexe D
[i j it angle];
if abs(phi)>.00001;
Xj=cos(phi)*xj+sin(phi)*yj;
Yj=-sin(phi)*xj+cos(phi)*yj;
bj1=Xj.*hj;
bj2=Yj.*hj;
b(:,i)=bj1;
b(:,j)=bj2;
lding(:,i)=b(:,i);
lding(:,j)=b(:,j);
end
end
end;
lding=b;
vfunct;
V=Vtemp;
if abs(V-V0)<.0001;break;else V0=V;end;
end;
%disp([Varimax Rotated Loadings:]);
%disp([lding]);
Le script vfunct est donne ci-dessous
% Marcus, 1993, in Reyment & Joreskog,
% Applied Factor Analysis in the Natural Sciences, CUP.
% This little program computes the value of V (Harmans
% notation) given also in formula 7.4 in the text.
bh=lding./(hj*ones(1,nf));
Vtemp=n*sum(sum(bh.^4))-sum(sum(bh.^2).^2);
Bovic Kilundu YEbondo 123 Travail de DEA, Mai 2004
Annexe E
Lalgorithme de rtropropagation du
gradient
Lalgorithme de rtropropagation du gradient suit la dmarche de Widrow-
Hoff. Dnir une notion derreur sur un exemple puis calculer la contribution cette
erreur de chacun des poids synaptiques. Cest cette seconde tape qui nest pas vi-
dente. Elle est parfois dsigne sous le nom de "Credit Assignment Problem".
An de pouvoir appliquer la mthode du gradient, on a besoin de calculer des
drives et donc de lisser les calculs. On remplace pour cela la fonction seuil de
Heaviside par une fonction sigmode.
Cette fonction est une approximation indniment drivable de la fonction
seuil de Heaviside, dautant meilleure que k est grand. On considre gnralement
k = 1
sig(x) =
1
1 +exp(kx)
(avec k > 0) (E.1)
Lalgorithme de rtropropagation est une procdure au cours de laquelle ler-
reur commise en sortie est propage vers les couches internes pour modier les poids
synaptiques. Cest une mthode de descente du gradient qui minimise lerreur.
Soit
Ep =
1
2
N

i=1
(T
i
A
i
)
2
(E.2)
124
Annexe E
lerreur associe lentre p. N est le nombre de neurone dans la couche de sortie, T
i
est la sortie attendue de la i` eme cellule de la couche de sortie, et A
i
la sortie calcule
par le neurone i.
w(n) =
E
w(n)
(E.3)
Soit E =

E
p
la mesure totale de lerreur. La mthode de la dscente du gradient
10 8 6 4 2 0 2 4 6 8 10
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
y = logsig(x)
x
y
10 8 6 4 2 0 2 4 6 8 10
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
y=tansig(x)
y
x
FIG. E.1 La fonction sigmode log gauche et tan droite
modie un poids arbitraire w du rseau de neurones de la manire suivante :
w(n + 1) = w(n) + w(n) (E.4)
o n est lindice ditration et une constante dchelle.
Cette mthode demande le calcul des drives E/w(n) pour chaque poids w
du rseau de neurones. Pour un noeud arbitraire dune couche cache, sa sortie a
j
est
une fonction non linaire f de son entre n
j
:
a
j
= f(n
j
) (E.5)
o f est la fonction dactivation, gnralement de type sigmode.
On peut donc crire
E
w
ij
=
E
n
j
n
j
w
ij
(E.6)
Bovic Kilundu YEbondo 125 Travail de DEA, Mai 2004
Annexe E
et comme
n
j
=
n

j=1
w
ij
p
i
(E.7)
nous avons
n
j
w
ij
= p
i
(E.8)
lquation (E.6) devient
E
w
ij
=
E
n
j
p
i
(E.9)
E
n
j
=
m

k=1
E
n
k
n
k
a
j
a
j
n
j
(E.10)
Comme
n
k
=
n

j=1
a
j
(E.11)
il suit que
n
k
a
j
= w
ij
(E.12)
et
a
j
n
j
= f

(n
j
) (E.13)
par consquent
E
n
j
= f

(n
j
)
n

k=1
E
n
k
w
ij
(E.14)
Si f est une fonction sigmode dquation (E.1)avec , alors
f

(n
j
) = A
i
(1 A
i
) (E.15)
Lquation (E.14) donne lunique rlation qui permet la rtropropagation de ler-
reur vers les couches caches. Pour la couche de sortie
E
n
j
=
E
a
j
f

(n
j
) (E.16)
E
a
j
= (T
i
A
i
) (E.17)
Bovic Kilundu YEbondo 126 Travail de DEA, Mai 2004
Annexe E
En resum, les sorties A
i
sont dabord calcules pour chaque neurones. La dri-
ve de lerreur ncssaire la rgle de la descente du gradiant de lquation (E.4) est
dtermine par
E
w
=
E
n
n
w
(E.18)
Si j est un neurone de sortie, alors
E
n
j
= (T
i
A
i
)A
i
(1 A
i
) (E.19)
Si j est un neurone cach, alors la drive de lerreur est propage vers larrire
en utilisant les quations (E.14) et (E.15). Substituant, on obtient
E
n
j
= A
i
(1 A
i
)
m

k=1
E
n
k
w
jk
(E.20)
Enn, les poids sont modis comme dans lquation (E.4).
Plusieurs modications cet algorithme ont t proposes dans le but dacc-
lrer la convergence. La convergence est dnie comme la rduction de lerreur une
valeur minimale xe davance comme objectif.
Une mthode utilise est linsertion dun moment dans lquation de modica-
tion des poids
w(n + 1) = w(n)
E
w
n
+ w(n) (E.21)
est le taux dapprentissage et est souvent choisi gal 0,25. Le terme constant
est un moment qui dtermine leffet des modications des poids prcdents sur la
direction de mouvement des poids actuels.
Une autre approche pour amliorer la convergence est lintroduction dun bruit
alatoire [44].
Bovic Kilundu YEbondo 127 Travail de DEA, Mai 2004
Annexe F
Mthodes spectrales paramtriques
Lestimation spectrale paramtrique dcoule dune dmarche de modlisation
qui suppose que le signal trait appartient une famille de signaux f. Cette famille
dpend de paramtres quil sagira dans un premier temps destimer. Une fois les
paramtres estims, on obtient une estimation du spectre par simple dualit temps-
frquence [45].
Les modles les plus usuels sont ceux qui rsultent dune modlisation source-
ltre. Un bruit blanc
k
de puissance
2
est ltr par un ltre numrique H(z) qui
colore le signal selon le principe de la formule des interfrences.
Ce ltre sexprime usuellement selon une fraction rationnelle en z
1
H(z) =
b
0
+ b
1
z
1
+ + b
q
z
q
a
0
+ ba
1
z
1
+ + a
p
z
p
(F.1)
Les paramtres du modle sont alors :
la puissance du bruit dentre
2
;
les coefcients du numrateur b;
les coefcients du dnorateur a.
Le cas le plus gnral est celui o le ltre possde de concert ples et zros. Le
signal ainsi gnr est dit ARMA ou signal Auto-Rgressif Moyenne Ajuste. Dans
cette reprsentation, on extrait deux sous-classes de signaux particuliers. Les signaux
AR (autorgressifs) correspondant des ltres dont le numrateur est rduit une
constante (ltre IIR). Paralllement, les signaux MA (Moyenne Ajuste), correspon-
dant des ltres dont le dnominateur est rduit lunit (ltre FIR).
128
Annexe F
F.1 Les indicateurs bass sur les paramtres autorgres-
sifs (AR)
Lavantage de ces mthodes est de permettre la reprsentation dun signal tem-
porel aussi bien dans le domaine frquentiel (PSD) que dans le domaine param-
trique. La reprsentation spectrale paramtrique peut tre trs indique quand on ne
dispose que des courts chantillons des donnes. Elle est souvent mentionne comme
une alternative avantageuse aux mthodes spectrales non paramtriques ( bases sur
la transforme de Fourier) [13] [22].
En considrant les signaux vibratoires comme des sries temporelles dune va-
riable alatoire X(n), le modle autorgressif dcrit le signal comme la sortie dun
ltre IIR (Innite Impulse Response) excit par un bruit blanc :
X(n) =
p

i=1

i
X(n i) + e(n) (F.2)
(F.3)
ou encore
X(n)
1
X(n 1)
2
X(n 2)
p
X(n p) = e(n) (F.4)
o les
i
(i = 1, ..., p) sont des paramtres et e(n) une distribution gaussienne centre
variance constante (bruit blanc). Il existe plusieurs techniques pour dterminer les
paramtres AR : La mthode de Yule-Walker, la mthode de Burg, la mthode des
covariances et la mthode des covariances modies pour lesquelles nous pouvons
rfrer le lecteur [32].
Si lon utilise le domaine paramtrique chaque paramtre AR constituera une
composante de vecteur indicateur lentre du rseau de neurones pour le diagnostic.
Il est donc capital de bien xer lordre p du modle AR pour viter le surapprentis-
sage quand lordre est trs lev. Ypma [13] propose une rduction de lordre par
une analyse en composante principale. Spoerre [33] qui applique le modle AR dans
la classication des dfauts des paliers propose lutilisation de deux critres pour la
slection de lordre du modle, il sagit de : lerreur de prdiction nale (EPF) et du
critre dinformation de Akaike (CIA).
Bovic Kilundu YEbondo 129 Travail de DEA, Mai 2004
Annexe F
Le critre EPF pour un processus AR est dni comme suit
EPF(p) =
p
(
N + (p + 1)
N (p + 1)
) (F.5)
o N est le nombre dchantillons, p lordre et
p
lestimateur de la variance du bruit
blanc.
En supposant que le processus est gaussien, le CIAsexprime pour un processus
AR sous la forme suivante
CIA(p) = Nln(
p
) + 2p (F.6)
Ces deux critres sont asymptotiquement quivalents cest--dire lorsque le nombre
dobserves N tend vers linni. Le critre EPF surestime lordre des signaux rels
tandis le CIA le sousestime. Une variante du CIA fut alors dvellope par Rissanen,
quil nomma MDL (Minimum Description Length)
MDL(p) = Nln(
p
) + pln(N) (F.7)
La construction du spectre paramtrique dun modle AR est ralise en intro-
duisant les p paramtres
i
dans la fonction thorique de densit spectrale de puis-
sance dnie par [22] :
P
AR
(f) =
2t
2
|1 +

p
i=1

i
e
i2fkt
|
(F.8)

1
2
f
1
2
t =
1
S
o S est la frquence dchantillonnage, p, lordre du modle AR et
2
, la variance.
Les paramtres
i
sont mieux calculs avec la mthode des covariances modies et
introduits dans lquation F.8 pour dterminer le spectre du processus alatoire.
On peut aussi utiliser lalgorithme de Burg pour lestimation du spectre para-
mtrique.
Bovic Kilundu YEbondo 130 Travail de DEA, Mai 2004
Annexe G
Statistiques dordre
suprieur :Bispectre et Trispectre
La densit spectrale de puissance S() dun signal x(t) est gale la transforme
de Fourier de sa fonction dautocorrlation R()
S() =
_
+

e
j
R()d (G.1)
o la fonction dautocorrlation R() , qui peut tre vue comme un moment temporel
dordre 2, est dnie par
R() = E{x(t + )x(t)} (G.2)
Si lon considre le moment temporel dordre 3 cest dire la moyenne du produit
des valeurs du signal 3 instants, on a
m
3
(
1
,
2
) = E{x(t)x(t +
1
)x(t +
2
)} (G.3)
De telles dnitions peuvent tre faites pour les cumulants aussi.
Le bispectre B(
1
,
2
) est alors dni comme la transforme de Fourier du cu-
mulant temporel dordre 3
B(
1
,
2
) =
_
+

_
+

c
3
(
1
,
2
)e
j
1

1
e
j
2

2
d
1
d
2
(G.4)
Le trispectre est
T(
1
,
2
,
3
) =
_
+

_
+

_
+

c
4
(
1
,
2
,
3
)e
j
1

1
e
j
2

2
e
j
3

3
d
1
d
2
d
3
(G.5)
131
Annexe G
Dans le domaine frquentiel le bispectre et le trispectre sont tout simplement calculs
par
B(
1
,
2
) = E{X(
1
)X(
2
)X

(
1
+
2
)} (G.6)
et
T(
1
,
2
,
3
) = E{X(
1
)X(
2
)X(
3
)X

(
1
+
2
+
2
)} (G.7)
Bovic Kilundu YEbondo 132 Travail de DEA, Mai 2004

Оценить