Академический Документы
Профессиональный Документы
Культура Документы
Wassim El Falou
Examinateurs :
Je dois d’abord dire un grand merci à Dieu qui m’a aidé à achever cette thèse. Je ne sais pas si
j’arrive à remercier toutes les personnes que j’ai rencontrées durant mes années de doctorat. En
tout cas qu’elles sachent toutes ma profonde reconnaissance.
Je commence par remercier mon directeur de thèse Mr Jaques Duchêne qui n’a pas cessé de me
conseiller durant toutes ces années pour faciliter mon travail de recherche et m’a guidé pour bien
accomplir cette tâche. Sans lui, ça était vraiment difficile. Je profite encore pour saluer ses
qualités humaines et les relations amicales et chaleureuses qu’il sait entretenir avec ses
chercheurs considérés tous comme des amis.
Je remercie aussi mon co-directeur au Liban Mr Mohamad Khalil qui m’a encouragé à faire
cette thèse et m’a supporté beaucoup durant ces trois années. Je salut son dynamisme et la qualité
de son support.
Mes remerciements s’adressent encore à tous les membres du jury et messieurs les rapporteurs
qui ont eu la gentillesse d’accepter cette tâche.
Mes remerciements à Dr. Haissam Ziade de la faculté de génie de l’université libanaise pour tous
ses conseils et ses encouragements durant cette thèse.
Mes grand remerciements aux membres du laboratoire LM2S et surtout :
- Le directeur du labo Mr Igor Nikiforov
- Mon ami dans le bureau David Hewson
- Florent Retraint, Yves Langeron, ….
Mes grands remerciements aussi au CNRS Libanais, et à mes enseignants en DEA modélisation
mathématique.
A tous mes étudiants à la faculté de génie au Liban et surtout : Maria, Ramia, Hassan, Rabih,
Sandy, André, Siba, Rawad, Majed, mes deux stagiaires : Mostapha et Jocleyne,... un grand
merci.
Enfin, j’adresse une vive reconnaissance à deux de mes amis qui m’ont accompagné durant mes
à Troyes, Bacem Backache et Fahed Abdallah, pour les beaux moments que j’ai passés avec eux.
Enfin, je ne peux pas oublier mes amis et toutes les personnes que j’ai rencontrées durant ces
années : la famille Duchêne et surtout Mme Babeth, Véronique et les autres filles, Ismain, Saïd,
Fekhra, Karim, Farid, Lydie, Natasha, Azzam, Fadi, Houssam,Janah.
Mes chaleureux sentiments et mes grands remerciements pour mes parents et surtout ma sœur
Rawa pour son aide precieuse dans la correction et la lecture de ce rapport.
4
Table des matières 1
Abréviations
AR Autoregressive process
ARMA Moving average autoregressive process
CUSUM Cumulative sum
COR Courbe Opérationnel du Récepteur
DCS Dynamic cumulative sum
EMG Electromyography
ECG Electro encephalogram
MNF Mean frequency
MDF Median frequency
MDCS Modified dynamic cumulative sum
MA Moving average process
SEMG Surface electromyography signal
Notations 7
Notations
θ0 : vecteur paramètre de l’hypothèse H0
εi : erreur de prédiction
an : coefficient AR numéro n
bn : coefficient MA numéro n
Eθ 0 [ s ] : espérance du logarithme de vraisemblance sous H0
gj : fonction de détection
h : seuil de détection
hL : seuil haut
hH : seuil bas
IKL : séquence de l’information de Kullback – Leibler dans un signal
j : instant courant
k : instant de changement
K (θ 0 ,θ 1) : information de Kullback - Leibler
Introduction générale
Dans le traitement et l'analyse de signal, la décomposition d'un signal en segments stationnaires
lorsqu'ils existent, constitue une première phase dans de nombreux domaines d'applications. La
segmentation sert en particulier à l'identification des différentes activités dans les signaux et à
l'élimination de phénomènes transitoires ou de segments trop bruités. Pendant ou après la
segmentation, suivant l'approche considérée, une classification peut être nécessaire afin de
limiter l’analyse aux activités utiles pour la prise de décision, quelle qu'elle soit.
Le travail présenté dans ce mémoire s’intègre dans cet objectif général de segmentation, de
classification et d’analyse des signaux. Le type de signal concerné est l'électromyogramme
(EMG) de surface, et l'objectif applicatif est d’étudier l’évolution de l'inconfort lors d’une
conduite de longue durée sous l'angle de la mise en évidence d'une éventuelle fatigue musculaire
locale. Les trajets automobiles de longue durée induisent en effet fréquemment des phénomènes
d'inconfort, en particulier au niveau musculaire, aussi bien pour le conducteur que pour les
passagers. Cet inconfort n'est généralement traduit que par des analyses sensorielles, sans qu'il y
ait un lien établi avec l'activité musculaire locale. On sait par ailleurs que l’analyse spectrale des
signaux électromyogrammes de surface (SEMG) peut fournir une indication sur l’apparition et la
progression de la fatigue musculaire. Ce signal est donc censé porter l'information locale
nécessaire pour faire le lien s'il existe, entre sensation d'inconfort et fatigue locale.
L’objectif de ce travail est donc l’étude de l’évolution de l’inconfort d’un opérateur assis en
situation de pilotage de longue durée.
En partant de ces hypothèses, nous nous sommes placés dans les conditions d’un trajet routier
par simulation sur un banc de mesures, et nous avons enregistré les signaux SEMG de différents
muscles des sujets en situation de passagers, c'est à dire exempts de toute tâche de conduite. Les
signaux SEMG sont alors réduits à la commande d’un maintien postural, ce qui signifie des
signaux de très faible activité par rapport aux signaux engendrés par exemple par des
mouvements volontaires. La première caractéristique fondamentale des signaux à prendre en
considération pour définir les méthodes de traitement sera donc un rapport signal sur bruit très
défavorable, au point qu'il s’agira surtout en premier lieu de développer une méthode de
segmentation permettant de ne conserver que les parties du signal exploitables du point de vue de
l'existence d'un contenu EMG exploitable. La deuxième caractéristique est qu'une induction de
10 Introduction générale
fatigue en maintien postural implique des expérimentations de longue durée (2h30 pour ce qui
nous concerne). Les méthodes de traitement devront prendre en compte ce paramètre de durée.
Une méthode de détection fondée sur une analyse des propriétés locales des signaux a été
développée à partir des travaux de thèse de Mohamad Khalil [Kha99a]. Elle repose sur une
approche statistique dont le principe est connu (CUSUM) mais exploitant un rapport de
vraisemblance calculé localement. Cette méthode, appelée MDCS (Modified Dynamic
Cumulative Sum), représente le corpus méthodologique de ce travail de thèse. Nous montrerons
que cette méthode présente deux avantages majeurs : le premier est qu’elle est rapide. Elle est
donc bien adaptée au traitement de signaux de longue durée. Le deuxième avantage est qu'elle ne
nécessite pas de connaissance a priori sur les événements à détecter, à condition que ceux-ci
puissent être représentés par un processus autorégressif. La méthode doit donc s'appliquer dans
le cas de méconnaissance de l'espace des hypothèses. De plus il a été nécessaire de mettre au
point une méthode adaptative de définition de la valeur des différents seuils impliqués dans la
segmentation. Cette méthode de détermination automatique des seuils a été définie sur la base de
la distribution de l’information de Kullback – Leibler dans le signal.
Après la segmentation, un test de rejet est nécessaire pour éliminer les segments fortement
bruités. Le contexte d'enregistrement en effet implique que la première question concernant les
signaux acquis est de savoir s'il existe dans les segments une activité EMG "significative", cette
notion étant directement liée au rapport signal sur bruit. Pour aborder ce problème du rejet,
plusieurs approches ont été testées, toutes reposant sur les caractéristiques spectrales attendues
d'un segment d'EMG.
Une fois cette suppression des segments non pertinents réalisée, il s'est avéré nécessaire
d'effectuer une classification des segments EMG restants. A la suite de l'étape précédente, tous
les segments conservés sont censés contenir de l'EMG. Cependant, certains d'entre eux
correspondent bien à une activité posturale (activité tonique) alors que d'autre sont le reflet de
mouvements volontaires ou de co-contractions (activité phasique). Le but de l'étude implique de
ne conserver pour l'analyse que les segments correspondant à une activité tonique. La méthode
de classification utilisée pour cela sera fondée à la fois sur des rapports d’énergie locale entre
segments consécutifs et sur la durée des segments.
Introduction générale 11
C'est seulement après cette étape de sélection des segments toniques que la caractérisation de
chaque segment est envisagée afin de décrire une éventuelle induction de fatigue locale. En
partant de l’hypothèse que la fréquence médiane du signal EMG diminue en présence de fatigue
musculaire, c'est ce paramètre spectral global que nous avons analysé.
Compte tenu des différentes étapes décrites précédemment, le mémoire est organisé de la façon
suivante :
• Le chapitre 2 commence par une revue bibliographique sur les algorithmes de détection,
puis nous présenterons l’algorithme de somme cumulée (CUSUM) qui est un algorithme
séquentiel de détection efficace dans les traitements séquentiels et qui permet de bien
localiser les instants de changements brusques. Cet algorithme, utilisé dans le cas de
paramètres d'hypothèses connus, est à la base de deux autres algorithmes adaptés au
problème posé. Le premier est l’algorithme de somme cumulée dynamique (DCS)
développé dans un travail antérieur, l’autre est l’algorithme de somme cumulée
dynamique modifié (MDCS), qui améliore la performance de l’algorithme précédent du
point de vue de la détection de changement entre deux hypothèses proches. Pour la
détection des changements de niveau d'énergie et de contenu spectral, l’utilisation de ces
algorithmes après modélisation autorégressive est aussi décrite. La comparaison entre
MDCS et DCS par courbes COR sur des signaux simulés est également présentée pour
démontrer les performances du nouvel algorithme.
• Le chapitre 3 est consacré au choix des modèles pour la représentation des signaux EMG
(et les méthodes d’estimation de leurs paramètres). Nous étudierons ensuite le choix de
l’ordre des modèles autorégressifs ainsi que son influence sur les performances de la
12 Introduction générale
• Les procédures de rejet et de classification sont décrits dans le chapitre 4. Deux méthodes
de rejet sont présentées, l’une fondée sur l'allure des spectres dans la partie haute
fréquence, la deuxième reposant sur des méthodes de modélisation spécifique du spectre
de l’EMG. Après rejet, une procédure de classification locale entre activité phasique et
activité tonique est ensuite présentée.
• Dans le chapitre 5, nous présentons les résultats obtenus par l'application de l'ensemble
des procédures sur les signaux réels pour différents sujets et dans les différentes
configurations d’expérimentation. Nous terminerons ce chapitre par une discussion
générale sur les méthodologies, la pertinence de leur application sur les signaux SEMG
de longue durée, en en présentant les avantages et les limites.
Position du problème 13
Chapitre 1
Position du problème
1-1 Introduction
Les trajets automobiles de longue durée induisent fréquemment des phénomènes de fatigue, en
particulier musculaire, aussi bien pour le conducteur et pour les passagers. On sait par ailleurs
que l'analyse spectrale des signaux électromyographiques de surface (SEMG) peut fournir une
indication sur l’apparition et la progression de la fatigue. L’analyse spectrale est souvent utilisée
puisqu’il a été montré que le spectre de l’EMG se compresse avec la fatigue. En se servant de ces
signaux, on peut espérer mettre en évidence le phénomène de fatigue musculaire et ainsi disposer
d’un outil de choix du siège le plus confortable du point de vue de la fatigue musculaire (qui
n’est cependant qu’un des aspect du ressenti d’inconfort che z les conducteurs et les passagers).
Dans ce chapitre, nous commençons par la description de l’objectif global de l'étude, puis nous
donnerons un bref aperçu de la physiologie associée aux signaux SEMG. Ensuite nous
présenterons l’expérimentation et l’acquisition des signaux.
A la fin du chapitre, nous reviendrons sur les différentes étapes de traitement à mettre en œuvre
pour extraire de l’EMG de surface dans de bonnes conditions les paramètres caractérisant la
fatigue musculaire.
Cette étude porte sur l’évaluation de l’inconfort d’un opérateur assis en situation de pilotage de
longue durée. Nous considérons pour cela l’évaluation de l’inconfort dynamique en conduite qui
peut être ramené à la caractérisation du système homme- siège.
En effet, le conducteur et les passagers sont soumis à des vibrations directement liées aux
caractéristiques du véhicule et de la route. Ces vibrations sont essentiellement transmises au
séant et au dos de l’occupant (c’est-à-dire le long de l’axe vertébral) par l’intermédiaire de
14 Position du problème
l’assise et du dossier du siège. Les commandes telles que les pédales et le volant peuvent en
outre transmettre des vibrations aux pieds et aux mains du conducteur.
Il est maintenant admis que les vibrations combinées à une position assise produisent un
inconfort plus ou moins prononcé et durable suivant les individus, notamment lors des trajets de
longue durée.
La connaissance des mécanismes physiologiques, physiques et psychologiques qui interviennent
dans la dégradatio n du confort s’avère donc indispensable non seulement pour améliorer la
sensation de bien être de l’individu, mais également pour éviter toute dégradation de la
performance.
En partant de cette hypothèse, nous nous sommes placés dans les conditions d’un trajet routier
par simulation sur un banc de mesures, et nous avons enregistré les signaux SEMG de différents
muscles des sujets. En effet, l’électromyographie de surface (SEMG) est un outil généralement
utilisé dans l'étude de l'activité de muscle puisqu'il fournit de façon non invasive une information
sur le niveau d'activation de muscle. Le signal SEMG est en particulier souvent utilisé comme
moyen pour étudier la progression de la fatigue sachant que les composantes fréquentielles du
spectre de puissance des signaux SEMG se décalent vers les basses fréquences en présence de
fatigue. La réduction correspondante de la fréquence moyenne ou de la fréquence médiane du
signal peut alors être employée pour identifier l’apparition et la progression de la fatigue
musculaire.
Ce qui nous intéresse donc dans cette étude, ce sont les signaux SEMG lors d’un maintien
postural, ce qui signifie des signaux de très faible activité par rapport aux signaux engendrés par
des mouvements volontaires. La première caractéristique des signaux à prendre en considération
pour définir les méthodes de traitement sera donc un rapport signal sur bruit défavorable. Il
s’agira alors en premier lieu de mettre au point une méthode de segmentation permettant de ne
conserver que les parties du signal exploitables du point de vue de leur contenu EMG.
Le deuxième aspect déterminant le choix des méthodes réside dans le fait que les signaux
posturaux sont pollués par des bouffées d’activité émanant de mouvements volontaires. La
segmentation devra donc également prendre en compte ces événements « phasiques ». Il sera
nécessaire ensuite de mettre en place des méthodes de classification pour identifier
l’appartenance de chacun des segments. Nous justifierons dans la suite une approche séparée
entre segmentation et classification.
La troisième caractéristique de ces signaux est qu’ils ont une durée importante, l’induction de
fatigue nécessitant des simulations de longue durée. Les méthodes devront donc prendre en
Position du problème 15
compte cet aspect en ne traitant pas globalement l’ensemble de l’enregistrement mais en utilisant
plutôt une approche locale.
Le paragraphe suivant va aborder la physiologie des signaux EMG, et va donner une description
de l’expérimentation et des types des signaux extraits.
Un muscle est formé d’un ensemble de fibres musculaires, elles même formées de myofibrilles
qui sont responsables de la contraction. Pour provoquer la contraction, les fibres musculaires
reçoivent, d’un nerf, un influx nerveux qui est en fait un stimulation électrique. Cette stimulation
est transformée en énergie (contraction) par réaction chimique au niveau des myofibrilles. Il faut
noter que chaque nerf ne concerne pas qu’une seule fibre mais un groupe de fibres appelé « unité
motrice ». Le muscle est lui- même formé d’un certain nombre de ces unités motrices. Le
faisceau de nerfs stimulant le muscle forme le nerf moteur.
Lorsqu’une unité motrice est excitée, elle se contracte puis se relâche. Pour la garder contractée,
il faudra la stimuler de nouveau avant la fin du relâchement. L’influx nerveux se traduit donc par
des impulsions électriques, à basse fréquence pour un petit effort, cette fréquence augmentant au
fur et à mesure que l’effort demandé devient plus intense. Il faut noter que, comme toutes les
unités motrices ne sont pas excitées de façon synchrone, le mouvement est alors « lissé ».
Les fibres musculaires, comme les cellules nerveuses, entretiennent de part et d’autre de leur
membrane une différence de potentiel ou potentiel de repos, qui témoigne de la polarisation de la
membrane. Toute contraction musculaire est précédée d’une dépolarisation, qui se manifeste
d’abord au niveau de la jonction neuromusculaire ou plaque motrice, sous l’action de
l’acétylcholine libérée par l’influx nerveux. Ce potentiel de plaque excite la membrane
musculaire, qui propage l’onde de dépolarisation tout au long de la fibre sous la forme d’un
potentiel d’action.
Les potentiels d'action se propagent le long de la membrane de la fibre musculaire et rayonnent
dans les tissus conjonctifs du muscle, de la graisse, et de la peau. Ils sont commodément détectés
sur la surface de la peau. Le signal électromyographique (EMG) est une addition des trains de
potentiel d'action d'unités motrices qui sont détectés par un système d'électrodes à proximité des
16 Position du problème
fibres. Quand les électrodes sont placées sur la surface de la peau, le signal détecté est désigné
sous le nom d'électromyogramme de surface (SEMG).
L'amplitude du signal d'EMG est stochastique (aléatoire) avec une distribution gaussienne qui
s'étend de 0 à 6 mV (crête à la crête). L'énergie utilisable du signal est limitée de 0 à 500 hertz
de gamme de fréquence, avec l' énergie dominante étant dans la gamme de 50-150 hertz
Luttmann définit [Lut99b] la fatigue musculaire comme étant une réduction de la capacité de la
force générée par le muscle durant le travail. Westgaard donne pour fonction à l’ergonomie
d’assurer un bon compromis entre le travail demandé et les capacités humaines [Wes99].
L’étude de la fatigue musculaire en utilisant les signaux SEMG a débuté dès 1912 [Bat98]. Les
premières études ont été limitées à des tests en condition statique en laboratoire. A présent de
nombreuses études s’intéressent à l’utilisation du signal SEMG pour l’évaluation de la fatigue
musculaire dans des activités naturelles, en particulier dans des applications d’ergonomie.
L’analyse de la fatigue musculaire utilisant les signaux SEMG en médecine de réadaptation est
étudiée par Karlsan et al. [Kar97]. Les signaux SEMG sont également utilisés pour l’analyse du
travail musculaire relié à des désordres squelettiques, en particulier dans trois applications :
évaluation des modèles de coordination du muscle, évaluation de la fatigue musculaire, et
évaluation des moments et des forces spinaux [Bat98]. D’autres auteurs utilisent le signal SEMG
pour l’étude de l’activité musculaire en charge de levage [Die98]. D’autres études encore
utilisent des signaux SEMG pour l’analyse de l’effet physiologique du travail [Duc93], [Lut99a],
[Her99], [Hag99], [Cha01].
Dans ces études la plupart des chercheurs utilisent l’analyse spectrale pour évaluer la fatigue
musculaire. Les deux paramètres les plus utilisés pour l'étude du phénomène de fatigue
musculaire sont la MNF (mean frequency) et la MDF (median frequency). Ces deux paramètres
s’avèrent porteurs d’information dans la mesure où avec la fatigue musculaire, les signaux
SEMG subissent une compression spectrale [Gra97c], [Mer99a].
L’estimateur spectral de la MNF a une variance plus faible que celui de la MDF [Mer99a]. Son
utilisation sera préférée dans le cas d’un rapport signal sur bruit favorable. Par contre dans le cas
d’un bruit élevé il est préférable d’utiliser la MDF, moins sensible au bruit, mais sensible aux
effets de la fatigue [Mer99b].
Position du problème 17
L’influence de la fatigue musculaire sur les différents paramètres extraits des signaux SEMG est
étudiée par un modèle de simulation dans [Pon98], l’influence de la position des électrodes sur
ces paramètres est étudiée dans [Kar99].
Dans [Lut98b] il est indiqué que la plupart des résultats de ces études en ergonomie et fatigue
musculaire restant des études de laboratoire, ce qui permet de contrôler au mieux les paramètres
de l’expérience, ce qui n’est pas souvent le cas des applications réelles. En particulier, il est très
difficile de séparer les différents facteurs de variation des paramètres spectraux, par exemple de
distinguer si un changement de spectre SEMG est dû à un changement dans le mode
d’activation du muscle ou à l’apparition de fatigue [Lut98b].
Des méthodes récentes fondées sur l’analyse temps- fréquence sont depuis peu utilisées pour
l’étude de la fatigue musculaire [Kna02], [Bon01] en utilisant les notions de moyenne et médiane
instantanées.
On voit donc à partir de ces quelques références bibliographiques qu’il est légitime d’utiliser le
signal SEMG pour des problèmes d’ergonomie et d’analyse de fatigue, dans des conditions
expérimentales bien contrôlées.
Ce travail a été développé dans le cadre d’un contrat DRET (N o 95/169) en collaboration avec
Renault et Thomson CSF. Les expérimentations ont été menées sous la responsabilité de
Renault, Thomson CSF intervenant pour exploiter des données subjectives recueillies sous forme
de questionnaires, en association avec des données issues de tâches réflexes et de performance
qui ne seront pas évoquées dans le cadre de ce travail. Nous ne décrirons donc du protocole que
ce qui est en rapport avec la génération, l’enregistrement et l’exploitation des signaux
musculaires.
Les signaux ont été enregistrés sur 11 sujets durant une période de 2 h 30 min, les sujets étant
assis sur un siège de voiture (figure 1.1). Chaque sujet a été testé pour quatre configurations
expérimentales : avec et sans vibration (vibration verticale), et pour deux types de sièges (L:
Laguna, T : Twingo) de confort différent.
18 Position du problème
La détection de l’activité électrique des muscles a été réalisée en dérivation bipolaire, ce qui
signifie que deux électrodes actives (positionnées en regard du muscle choisi) sont nécessaires,
ainsi qu’une électrode de référence.
Le signal SEMG a été enregistré sur 9 muscles posturaux :
tibialis gauche et droit (muscles des jambes) (TA),
erector spinae gauche et droit (lombaires inférieures situées entre L2 et L3) (LOM),
oblicuus externus gauche et droit (abdominaux),
cervical erector spinae gauche et droit (muscles situés à l'arrière du cou entre C4 et C6) (CES),
éminence hypothénar gauche (muscle de l’index) (EM). L’activité de ce dernier muscle a été
enregistrée uniquement dans le cadre du contrôle de la tache réflexe et ne sera pas considérée
dans la suite de l’étude.
Position du problème 19
Le choix des muscles a été effectué à la suite de différentes pré-expérimentations qui ont été
mises en place au début du projet. Deux critères principaux ont dicté ce choix :
amplitude du signal électromyographique
facilité d’accès au muscle et de mise en place des électrodes
Les signaux SEMG ont été échantillonnés à une fréquence de 840 Hz, après filtrage anti-
repliement et filtrage passe haut (20 Hz).
L’ensemble des signaux a été acquis grâce à un logiciel d’acquisition réalisé sous Labview 5, au
travers d’une carte de conversion analogique/numérique 16 voies (ATMIO 16XE10 de National
Instruments) intégrée à un PC de mesure. Elle fo nctionne avec une résolution de 16 Bits sur une
étendue de mesure de +/- 8 Volts (bipolaire). La carte a été utilisée en mode différentiel,
multiplexée sur 24 voies.
Un boîtier de conditionnement renfermant des filtres analogiques anti-repliement a été intercalé
entre le deuxième étage amplificateur des signaux EMG et la carte numérique. Les filtres passe-
bas utilisés sont de type elliptique d’ordre 8. La fréquence de coupure a été fixée à 350 Hz.
Au total 50 tests ont été réalisés, correspondant aux différentes configurations expérimentales.
Chaque test, d’une durée totale de 2h30min, correspondait à l’enregistrement de 8 voies EMG
échantillonnées soit près de 1000 h d’enregistrements à traiter. La fréquence d’échantillonnage à
840 Hz donne une idée du volume des données numériques. C’est pourquoi un des objectif de ce
20 Position du problème
travail de thèse a été de créer des algorithmes de segmentation efficaces et rapides (avec un
maximum de récursivité), avec une définition automatique des différents paramètres de ces
algorithmes (en particulier les seuils) ainsi que des méthodes automatiques de classification et de
rejet des différentes activités détectées dans ces signaux.
Le paragraphe suivant va identifier les traitements successifs nécessaires à l'extraction des
paramètres pertinents capables de suivre le phénomène de fatigue musculaire. Il mettra en
évidence les caractéristiques de ces traitements et les hypothèses sur lesquelles ils doivent
reposer.
Le problème majeur lié à l’enregistrement de l’activité de muscles posturaux est le fait que le
niveau d’EMG présent dans le signal est très faible, comparé aux bruits environnants provenant
de diverses sources :
- l’ECG
- l’influence électromagnétique du secteur
- un ensemble de bruits parasites liés aux électrodes et à l’instrumentation, la plupart pouvant
être modélisés par un bruit blanc, dont le niveau peut être très supérieur au niveau du signal
dans le cas d’enregistrement d’activités de maintien postural.
D’autre part, les enregistrements ne contiennent pas que de l’activité posturale mais également
des événements phasiques liés pour la plupart à des mouvements ou des co-contractions. On
distinguera en fait trois types d’activités dans les enregistrements :
- l’activité tonique (TO) : activité de fond de maintien postural, directement concernée par
notre étude
- l’activité phasique (PH) : activité liée aux mouvements volontaires ou co-contractions. Dans
le cadre de l’étude, ces activités doivent être considérées comme des segments à éliminer
- l’activité spécifique d’unités motrices (UM). Cette activité est parfois détectée. Elle
correspond au battement spontané d’une unité motrice proche de la surface. Bien que ce
phénomène corresponde à de l’EMG, il risque de créer un biais local dans l’estimation des
différents paramètres extraits de l’EMG. De ce fait les segments correspondants doivent être
également éliminés.
Il est donc nécessaire de traiter les signaux en plusieurs étapes :
Position du problème 21
Pré-traitement
Segmentation
La segmentation est une phase très importante dans notre travail, l’objectif de la segmentation
étant l’extraction des segments correspondant à l’activité de fond de maintien postural (activité
tonique). Pour cela, nous devons supprimer les parties de segments correspondant à l’activité liée
aux mouvements volontaires ou co-contractions, les parties correspondant à l’activité spécifique
de certaines unités motrices et éventuellement d’autres classes d’événements que nous n’avons
pas identifiées.
Il est alors nécessaire de développer un algorithme de segmentation bien adapté à des signaux de
longue durée, qui tienne compte des variations énergétiques et spectrales des signaux, et qui
définisse de façon automatique les différents réglages des paramètres des méthodes mises en
œuvre, en particulier le problème de réglage de seuils. Le développement de cet algorithme fera
l’objet du chapitre 2, où un algorithme développé dans un travail précédent [Kha00], [Fal01d] a
été modifié pour en améliorer les performances. Le réglage automatique des seuils ainsi que le
choix du modèle de signal et de la méthode d’estimation seront traités au chapitre 3.
Classification et rejet
Après segmentation des signaux SEMG, il est nécessaire de classer les segments obtenus en
fonction de leur origine, pour ne conserver que les segments toniques dont le rapport signal sur
bruit est suffisant pour en extraire des caractéristiques spectrales qui aient un sens.
Cette étape de classification doit se décomposer en deux phases :
- élimination des segments pour lesquels le niveau de bruit interdit toute exploitation
ultérieure. Cette classification sera fondée sur la concordance des spectres des segments
22 Position du problème
obtenus dans la phase de segmentation avec des modèles analytiques de spectres d’EMG,
l’un tiré de la littérature, l’autre proposé dans le cadre de ce travail.
- sélection des activités toniques. Cette sélection utilisera essentiellement les différences
d’énergie entre segments voisins pour ne retenir que les segments de plus faible énergie
conservés dans la phase précédente.
L’ensemble de la démarche de classification sera décrite dans le chapitre 4. Ce dernier inclura
également une proposition de traitement permettant d’éliminer une partie du bruit contenu dans
les enregistrements restants, avant extraction des paramètres susceptibles de porter une
information sur la fatigue musculaire.
Les résultats sur les signaux réels seront présentés et discutés dans le chapitre 5, avant une
conclusion générale sur les aspects et les limites des méthodes développées pour le traitement de
ce type de signaux longs à faible rapport signal sur bruit.
1-6 Conclusion
Chapitre 2
Algorithmes de Détection de
changements
2-1 Introduction
Le problème de la détection des changements et des non stationnarités est un problème très
fréquemment abordé en traitement du signal. En fait la décomposition d'un signal non
stationnaire en segments stationnaires, lorsqu’ils existent, constitue une première phase dans bon
nombre d’analyses de signaux. Parmi les domaines où les chercheurs ont développé des
algorithmes de segmentation, on peut citer le domaine de traitement de parole, le traitement des
signaux sismiques et des signaux biomédicaux [Obr88a], [Obr88b], [Bas93], [Kha99a], [Kha01].
Les algorithmes de détection sont essentiellement fondés sur la théorie statistique des tests
d'hypothèses. Parmi ces algorithmes, nous nous sommes intéressés aux algorithmes séquentiels
car ces algorithmes nous permettent de bien localiser les instants de changement. Citons par
exemple l'algorithme de somme cumulée (CUSUM) qui est l'un des algorithmes séquentiels de
détection les plus efficaces dans le cas où les paramètres sont connus [Bas93].
En pratique, les paramètres des hypothèses ne sont pas connus et beaucoup d’algorithmes ont été
développés pour résoudre ce type de problème [Bas93]. Dans ce chapitre nous présentons une
bibliographie détaillée sur les principes de ces algorithmes, leurs avantages et leurs
inconvénients, ainsi que les raisons qui nous conduisent à proposer des algorithmes locaux de
traitement. Nous expliquons ensuite l'algorithme de somme cumulée dynamique (DCS), et ses
modifications. Dans notre cas de traitement des signaux biomédicaux, où il est intéressant de
détecter les changements spectraux, l'algorithme DCS proposait une méthode originale fondée
sur la décomposition en ondelettes. Dans notre nouvel algorithme, nous utiliserons une autre
approche, la modélisation autorégressive, pour la détection des changements spectraux
[Kha99b].
L'algorithme général de segmentation est présenté en fin de chapitre 3.
24 Algorithmes de Détection de changements
Le problème de détection consiste à détecter une rupture dans un signal observé x et à estimer
l'instant k de son apparition. Ce problème se ramène à un test d'hypothèse. Dans le cas où le
changement intervient sur les paramètres, le problème s'appelle problème de test d'hypothèse
paramétrique. En effet, si nous disposons d'une suite d'observations x1 , x2 , …, xn qui jusqu'à
l'instant k suit une loi de probabilité fθ 0 (de paramètre θ 0 ) et ensuite est régi par une densité de
probabilité f θ1 (de paramètre θ1 ), pour détecter une éventuelle rupture dans le paramètre θ , nous
contre (2.1)
θ = θ 0 , pour 1 ≤ i ≤ k
H1 :
θ = θ 1, pour k + 1 ≤ i ≤ n
La plupart des méthodes de détection sont fondées sur la somme de logarithmes de rapports de
vraisemblance, qui a été démontrée comme une statistique suffisante dans la théorie de la
détection [Bor87], [Sap90], [Bas93]. Le logarithme du rapport de vraisemblance est défini par :
j
f θ1 ( xi / xi−1,..., x1 )
S ( x1, x2 ,..., x j ) = ∑ ln (2.2)
i =1 fθ 0 ( xi / xi −1 ,..., x1 )
Dans cet algorithme on considère un échantillon de taille N. On prend alors la somme des
logarithmes du rapport de vraisemblance comme:
j. N
S1N ( j ) = ∑ si (2.3)
i = ( j −1 ). N +1
avec
Algorithmes de Détection de changements 25
f θ1 ( xi / xi−1 ,..., x1 )
si = ln (2.4)
fθ 0 ( xi / xi−1,..., x1 )
2-2-3-1 Formulation
La somme cumulée est fondée sur le calcul récursif du logarithme du rapport de vraisemblance.
La procédure CUSUM peut être considérée comme une séquence de tests répétés autour d'un
point de changement k.
L’algorithme CUSUM intuitif se présente comme suit [Nik86], [Bas93]:
- à un instant j on cherche la somme des logarithmes des rapports de vraisemblance :
j j
fθ1 ( xi / xi −1 ,..., x1 )
S1j = ∑ si =∑ ln (2.7)
i =1 i =1 f θ 0 ( xi / xi−1,..., x1 )
On suppose que les échantillons successifs sont indépendants, suivent une loi gaussienne de
moyenne nulle, et présentent des changements en variance uniquement. Dans ce cas θ 0 = σ 0 et
θ1 = σ 1 . Les densités de probabilité peuvent s'écrire:
x2i
− 2
1
f θ 0 ( xi ) = e 2σ 0 (2.13)
2π σ 0
x2i
− 2
1
f θ1 ( xi ) = e 2σ1 (2.14)
2π σ 1
L'expression du logarithme de vraisemblance est alors:
1 σ2 1 1
si = [ ln 12 + xi2 ( 2 − 2 )] (2.15)
2 σ0 σ 0 σ1
Dans le cas pratique (en particulier dans le cas des signaux biomédicaux) les échantillons sont
dépendants, l'expression de la somme du logarithme de vraisemblance est alors :
j
f θ1 ( xi / xi−1,..., x1 )
S ( x1, x2 ,..., x j ) = ∑ ln (2.16)
i =1 fθ 0 ( xi / xi −1 ,..., x1)
Dans la plupart des cas on peut modéliser les signaux par des modèles paramétriques comme le
modèle ARMA ou le modèle AR.
Dans le cas d’un signal modélisé par un modèle ARMA (p, q), on peut écrire que :
p q
xi = − ∑ an . xi −n + ∑ bnε i −n + ε i (2.17)
n =1 n =1
Si une variation dans le signal se manifeste par une variation dans l’un au moins des paramètres
du modèle ARMA, on a alors :
θ 0 = ( a10 ,..., a 0p , b10 ,..., bq0 , σ 02 )
(2.18)
θ1 = ( a11,..., a1p , b11 ,..., b1q , σ 12 )
ε2
1 − i2
pθ ( xi / xi−1,..., x1 ) = e 2σ (2.19)
σ 2π
Le logarithme du rapport de vraisemblance est alors:
1 σ 2 ( ε 0 ) 2 (ε 1 ) 2
si = [ ln 02 + i 2 − i 2 ] (2.20)
2 σ1 σ0 σ1
avec
ε il = xi + ∑ an xi− n , l = {0,1}
p
n =1
Eθ 0 [ si ] < 0
(2.23)
Eθ1 [ si ] > 0
Cette propriété est très importante, et elle doit être vérifiée aussi dans le cas des algorithmes de
détection où les paramètres sont inconnus.
Algorithmes de Détection de changements 29
La performance des algorithmes de détection séquentielle est caractérisée par deux paramètres
qui sont :
- le temps moyen de détection
- le temps moyen entre deux fausses alarmes
Il a été démontré que l’algorithme CUSUM est optimal dans le sens qu’il minimise le temps
moyen de la détection, lorsque le temps moyen entre deux fausses alarmes tend vers l’infini
[Bas93], [Bar00].
Il existe des formules asymptotiques qui permettent le choix du seuil dans le cas des algorithmes
CUSUM, mais dans le cas réel on montrera au chapitre 3 que ces formules sont délicates à
utiliser pour le choix du seuil, en particulier au vu de leurs propriétés uniquement asymptotiques.
Nous avons développé dans ce travail une méthode de choix automatique des seuils, fondée sur
les caractéristiques des signaux. Cette méthode sera présentée dans le chapitre 3.
Le cas le plus fréquent de détection de changement est le cas où les paramètres de changement
sont inconnus. Plusieurs algorithmes ont été développés pour résoudre ce problème, dans de
nombreux domaines d’application. Dans les paragraphes suivants nous présentons quelques
algorithmes, leurs avantages et leurs inconvénients, nous présentons ensuite notre algorithme de
somme cumulée dynamique et sa version modifiée permettant d’améliorer la performance de
détection et de résoudre le problème de sur-segmentation.
Cette méthode utilise le principe de maximum de vraisemblance. La somme des logarithmes des
rapports de vraisemblance entre deux instants n et j est donnée par :
j j
fθ1 ( xi / xi −1 ,..., x1 )
S = ∑ s( xi / xi−1,..., x1 ) = ∑ ln
n
j
(2.24)
i= n i= n f θ 0 ( xi / xi−1,..., x1 )
Si les paramètres θ 0 et θ1 sont inconnus ils sont remplacés par leurs estimations au sens du
maximum de vraisemblance, ce qui conduit finalement à la fonction de décision suivante :
H1
g j = max sup sup S n ≥ h
j
(2.26)
1 ≤n ≤ j θ1 θ0
Lorsque gj dépasse un seuil h fixé a priori, alors H1 doit être décidée, H0 dans le cas contraire.
Les maximisations dans la fonction de décision précédente sont compliquées et coûteuses en
temps de calcul. Elles sont contradictoires avec la volonté de développement de méthodes
capables de détecter séquentiellement d’éventuels changements. Brandt [Bra83] a alors proposé
une simplification de la méthode précédente.
FIG. 2.2 – Interprétation de la méthode de Brandt pour la détection. Cette figure montre les
fenêtres croissante, globale et test.
Algorithmes de Détection de changements 31
Si on suppose que θ l , l = {0,1} , sont des scalaires qui représentent les variances des erreurs de
prédiction, ce test conduit à la fonction de décision suivante:
^2
(θ 0 /0 ) j H1
g j = ln ≥h (2.27)
^2 ^2
j− N
(θ 1/1 ) (θ 0/1 )
N
Si cette méthode permet d’éviter la maximisation en n, elle ne donne pas en revanche une
solution très satisfaisante du véritable instant de changement. L’optimisation de l’estimation de k
doit être réalisée à l’intérieur de la fenêtre test. En effet si la détection a lieu à un instant j (fin de
la fenêtre test), il est légitime d’émettre l’hypothèse que le véritable instant de changement se
situe à l’intérieur de la fenêtre test [j-N+1, j]. Donc ce test de Brandt consiste à détecter la
présence ou l’absence d’une rupture dans la fenêtre d’analyse, et nécessite ensuite d’affiner
l’estimation de l’instant de changement lorsqu’une rupture est détectée.
2-3-3-1 Méthodes fondées sur l’erreur de prédiction d’un modèle (Blancheur d’innovation)
Dans cette méthode on identifie un modèle AR au début du signal (dans une première fenêtre
d'estimation), puis on filtre les échantillons successifs en calculant l’erreur de prédiction
(innovation). Ensuite on calcule une somme cumulée sur le carré des erreurs de prédiction pour
détecter le changement.
On suppose que le signal suit la densité de probabilité conditionnelle f θ0 ( xi / xi−1,..., x1 ) avant
j
S j = ∑ si (2.28)
i =1
avec
1 ε i2
si = ( − 1) (2.30)
2 σ 02
et alors :
1 j ε i2
Sj = ∑( − 1) (2.31)
2 i =1 σ 02
La règle de décision est :
g j = S j − min S i ≥ h (2.32)
1≤i ≤ j
Il a été vu dans [Bas83a], [Bas93] que ce type d’algorithme présente quelques limitations pour
les raisons suivantes :
- L’identification du premier modèle AR ne se fait qu’au début du signal. On ne tient pas
compte de tous les échantillons disponibles pour identifier le modèle
- Cet algorithme n’a plus la propriété de détectabilité. En effet il a été démontré dans [Bas83]
que la moyenne de si est nulle sous l’hypothèse H0 et qu’elle n’est positive sous l’hypothèse
H1 que si σ 1 ≥ σ 0 . L’algorithme n’est donc pas capable de détecter les changements où il y a
une décroissance dans la variance d’innovation des deux modèles AR.
Les algorithmes qui consistent donc à identifier un seul modèle AR présentent des limitations. Il
est préférable d’utiliser des algorithmes qui consistent à identifier deux modèles AR à chaque
instant, comme les algorithmes qui vont être présentés dans la suite.
La distance entre les lois de probabilité avant et après la rupture utilisée dans la méthode de
Divergence consiste à corriger à chaque instant l’incrément du rapport de vraisemblance de
l’algorithme CUSUM par son espérance mathématique sous la loi de probabilité conditionnelle
avant la rupture. La statistique est donc :
f θ1 ( xi / X 1i −1 ) fθ1 ( x / X1i −1 )
si = ln − ∫ fθ 0 ( x / X 1i−1) ln dx (2.33)
fθ 0 ( xi / X 1i−1 ) fθ 0 ( x / X 1i−1 )
Algorithmes de Détection de changements 33
En supposant que le signal analysé soit décrit par une modélisation AR d’ordre p, et en utilisant
les modèles identifiés sur les fenêtres de la figure 2.3, cette statistique s’écrit analytiquement (cas
de lois gaussiennes):
^ 2 ^ 2
1 ε i0ε 1i σ 0 (ε i0 ) 2 σ0
si = [ 2 2 − (1 + 2 ) 2
− ( 2 − 1)] (2.34)
2 ^ ^ ^ ^
σ1 σ1 σ 0 σ1
où
• ε i0 est l’erreur de prédiction courante sous H0 (fenêtre de référence)
^ 2
• σ 0 est l’estimation courante de σ 02 obtenue sous H0 (fenêtre de référence)
FIG. 2.3 – Définition des fenêtres d’estimation dans l’algorithme de Hinkley. Fenêtre [1..j] :
fenêtre de référence. Fenêtre [j-N+1..j] : fenêtre test.
Il a été démontré dans [Bas83b] que cette statistique a une moyenne nulle sous l’hypothèse H0 et
positive sous l’hypothèse H1 .
D’après [Bas83b], [Voz94] et pour bien estimer ’l instant de changement, on ajoute à chaque
instant à la statistique précédente une dérive négative ν qui peut être interprétée comme
l’amplitude minimale du saut que nous désirons détecter, ce qui donne une nouvelle statistique :
34 Algorithmes de Détection de changements
~
si = si −ν (2.35)
Pour les échantillons jusqu’à l’instant j, la statistique est :
~ j ~
S j = ∑ si (2.36)
i =1
Il a été montré dans [Bas83b], [Bas93] que ces algorithmes utilisant l’estimation de deux
modèles AR sont beaucoup plus performants que les autres algorithmes.
On note en particulier pour cet algorithme qu’il est utilisé dans le traitement de parole [Obr97],
[Obr88a], [Obr88b], et qu’il y a deux paramètres à régler qui sont le seuil h et l’amplitude
minimale ν .
2-3-4-1 Principe
FIG. 2.4 – (a) Exemple de signal contenant un seul point de changement k. (b) Evolution de la
somme cumulée dynamique autour du point de changement. Axes des abscisses : nombre de
points. Axes des ordonnées : unités arbitraires
^ j
Les paramètres de l’hypothèse H bj , θ b sont estimés à partir de N points avant l’instant j et les
^ j
paramètres de l’hypothèse H , θ a sont estimés à partir de N points après l’instant j.
a
j
A l’instant j, nous définissons DCS comme la somme des logarithmes des rapports de
vraisemblance à partir du début du signal jusqu’à l’instant j :
j f i^ ( xi ) j ^
DCS ( H aj , H bj ) = ∑ ln =∑ s i
θa
i
(2.39)
i =1 f ^ ( xi ) i =1
θb
^
f i^ ( xi )
θa
s i = ln i
, le logarithme du rapport de vraisemblance a un caractère local dans la mesure où
f ^ ( xi )
θb
les paramètres des deux hypothèses sont ré-estimés à chaque pas dans les deux fenêtres de N
points autour du point courant j.
36 Algorithmes de Détection de changements
Il est été démontré dans [Kha99b] que la fonction DCS arrive à son maximum au temps de
changement k. Un exemple de l’évolution de DCS est présenté sur la figure 2.4.
La fonction de détection utilisée pour estimer l’instant de changement est exprimée par:
[ ( )]
g j = max DCS H ai , H bi − DCS H aj , H bj
1 ≤i ≤ j
( ) (2.40)
Dans le cas de signaux modélisés par un modèle AR d’ordre p, l’expression des densités de
probabilité conditionnelles sont :
( ε ib )2
−
avec ε = xi +
i
b ∑ ka xi− k , σb
l’estimée de la variance σ 02 du premier modèle AR, et
k =1
a
p ^ ^i
2
ε ai = xi + ∑ a k xi− k , σ a
l’estimée de la variance σ 12 du second modèle AR.
k =1
Lorsqu’on applique DCS dans le cas d’un modèle AR, il est utile de définir une troisième fenêtre
qui est utilisée pour calculer les innovations (erreurs de prédiction) [Fal00].
Donc les fenêtres autour de l’instant courant i sont:
Wbj : j − N − p + 1... j − p
j
W p : j − p + 1... j
j
Wa : j + 1... j + N
FIG. 2.5- Définition des fenêtres pour DCS dans le cas de signaux modélisés par un modèle AR.
Axe des abscisses : nombre de points. Axe des ordonnées : unité arbitraire.
L’utilisation de cette troisième fenêtre est importante, car si on applique l’algorithme sans cette
fenêtre comme dans le cas de changement de variance on risque d’augmenter le taux de non
détection. En effet les mêmes données sont utilisées pour estimer les paramètres AR de la fenêtre
« before » et pour calculer l’innovation. L’hypothèse Hb sera alors privilégiée par rapport à Ha.
L’introduction de cette troisième fenêtre corrige ce défaut.
La méthode DCS a démontré son efficacité lorsqu’elle est appliquée sur les signaux EMG utérins
[Kha00], et également sur les signaux musculaires posturaux [Fal01b] [Fal02]. Cette méthode
présente cependant quelques limitations qui vont être soulignées dans le paragraphe suivant et
qu'il sera nécessaire de lever en développant une version modifiée de l'algorithme.
DCS présente quelques limitations liées à son utilisation dans des configurations spécifiques:
- comme les fenêtres sont utilisées pour estimer localement les paramètres d'hypothèse avant et
après le temps courant j, le choix de la largeur de fenêtre a une grande influence sur le
procédé de détection
38 Algorithmes de Détection de changements
FIG. 2.6- Illustration d’un changement non détecté par DCS. Axes des abscisses : nombre de
points. Axes des ordonnées : unités arbitraires
2-3-5-1 Principe
Algorithmes de Détection de changements 39
Les limitations de la méthode DCS nous conduisent à définir un nouvel algorithme qui pallie
ces difficultés. L’algorithme est modifié de deux façons: d’une part il faut modifier la taille
des fenêtres afin d’assurer la détectabilité de l’algorithme, d’autre part il faut minimiser les
erreurs d’estimation en utilisant une technique de seuillage différente. Pour cela nous
introduisons une méthode de double seuil.
Comme précédemment l’algorithme est fondé sur deux fenêtres glissantes Wb j et Waj pour
^ j ^ j
estimer les deux paramètres θ b et θ a à chaque instant j. Comme dans DCS, Waj est de taille
^ j
W b
j
: 1 ..... j − 1 → θ b
^
W j
: j + 1 ..... j + N → θ j
a a
Nous verrons dans le paragraphe 2-3-5-2 que l’utilisation de ces nouvelles fenêtres, associée
à la méthode de double seuillage, nous permet de retrouver la propriété de détectabilité
perdue dans l’algorithme DCS.
Il est à noter que, dans le cas d’un modèle AR, il est nécessaire d’utiliser comme
précédemment une troisième fenêtre W pj pour calculer l’erreur de prédiction. Les fenêtres
W b
j
: 1 ..... j − p
W a
j
: j + 1 ..... j + N
W j
: j − p + 1 ..... j
p
b) Double seuillage
L’un des problèmes de DCS est qu’entre l’instant de changement et l’instant d’arrêt, la
^ j
fenêtre Wb j pénètre dans l’hypothèse H1 , ce qui influe sur l’estimation de θ b . Pour résoudre
ce problème, l’idée consiste à utiliser deux seuils dans la fonction de détection:
- Le premier seuil est le seuil bas hL. Lorsque la fonction de détection atteint ce seuil on arrête
^ j
l’estimation de θ b , et ce tant que la fonction de détection reste au dessus du seuil hL.
- Le second seuil est le seuil haut hH, qui est le seuil de détection. Lorsque la fonction de
détection atteint ce seuil on arrête la détection, et on estime le vrai temps d’arrêt par la
formule (2.48), donnée ci après.
j f ^i ( xi / xi−1,..., x1 ) j ^
MDCS ( H , H ) = ∑ ln =∑ s i
j j θa
a b i
(2.46)
i =1 f ^ ( xi / xi−1,..., x1 ) i =1
θb
La fonction de détection utilisée pour estimer le temps de changement est exprimée par:
[ ( )]
g ( j ) = max MDCS H ai , H bi − MDCS H aj , H bj
1≤i ≤ j
( ) (2.47)
^ i
j ^
(σ a ) 2 (ε ai ) 2 (ε bi ) 2
j
MDCS ( H , H ) = ∑ s i = ∑ [ln ^ i + ^ i − ^ i ]
j j 1
a b (2.50)
i =1 i =1 2
(σ b ) 2 (σ a ) 2 (σ b ) 2
^ i
• σ b : Estimation de l’écart type de l’innovation du modèle AR « before »
^ i
• σ a : Estimation de l’écart type de l’innovation du modèle AR « after »
^ j ^ j
vers l'infini, θ b → θ 0 , et θ a est un estimateur moins efficace de θ 0 , donc l’espérance
Algorithmes de Détection de changements 43
f ^j ( xi / xi−1,..., x1 )
θa
mathématique de ln j
est négative
f ( xi / xi−1 ,..., x1 )
θ0
^
f ^j ( xi / xi −1 ,..., x1)
θa
soit Eθ 0 [ s j ] = Eθ 0 [ ln j
]<0.
f ^ ( xi / xi−1 ,..., x1 )
θb
Sous l’hypothèse H1 et lorsque la fonction de détection atteint la valeur de seuil bas hL, on
^ j ^ j ^ ^ j
arrête l’estimation de θ b . On a donc un estimateur θ b = θ 0 . Pour l’estimation de θ a on a
^ j ^
f ^j ( xi / xi−1,..., x1 )
θ1
θ a = θ 1 . On a alors l’espérance mathématique de ln j
positive, car
f ^ ( xi / xi −1 ,..., x1 )
θ0
^ ^ ^
f ^i ( x j / x j −1 ,..., x1 )
θa
l’estimateur θ 1 estime mieux θ1 que θ 0 , soit Eθ1 [ s i ] = Eθ1 [ln i
]>0.
f ^ ( x j / x j −1 ,..., x1)
θb
FIG. 2.9- Evolution de DCS et MDCS autour du point de changement (k=10000). (a) Signal
(b) Evolution de DCS (c) Evolution de MDCS. Axes des abscisses : nombre de points. Axes
des ordonnées : unités arbitraires
44 Algorithmes de Détection de changements
Dans cet exemple, un changement de variance de 1 à 2 est introduit dans le signal au point
10000. Le tracé (b)correspond à l’évolution de DCS, où aucun maximum n’est observé
autour du point de changement, alors que le tracé (c), correspondant à l’évolution de MDCS,
montre que la propriété de détectabilité est à nouveau vérifiée, permettant une détection de
changement au point 10000.
Cette propriété est très importante, car elle lève la première limitation de DCS, et elle garantit
que la fonction de détection augmente indéfiniment sous l’hypothèse H1 .
Les deux méthodes ont été testées en utilisant 1000 segments de bruit blanc, avec un
changement de variance de 1 à 2. La comparaison est effectuée à partir des courbes COR
obtenues pour chacune des méthodes.
FIG. 2.10- Comparaison entre DCS et MDCS par courbe COR sur des signaux simulés. Axe
des abscisses : Probabilité de fausse alarme. Axe des ordonnées : Probabilité de détection.
Cette comparaison (figure 2.10) démontre que pour une même probabilité de fausse alarme,
la probabilité de détection est bien supérieure pour MDCS que pour la méthode antérieure
DCS.
Algorithmes de Détection de changements 45
2-4 Conclusion
Dans ce chapitre nous avons présenté quelques algorithmes de segmentation et surtout les
algorithmes fondés sur la modélisation AR pour détecter les changements spectraux dans les
signaux. Nous avons présenté l’algorithme de somme cumulée dynamique qui a été
développé auparavant pour la segmentation des signaux EMG utérin, et nous avons mis en
œuvre un nouvel algorithme qui corrige les inconvénients de l’algorithme DCS.
Les premiers résultats sur segments simulés sont très encourageants, alors même que ni le
choix du modèle, ni la détermination des seuils sur la fonction de détection n’ont été encore
optimisés.
Le chapitre suivant revient sur le choix du modèle paramétrique le mieux adapté aux signaux
électromyographiques, ainsi que sur les méthodes d’estimation mises en œuvre. Il décrit
également une méthode originale et automatique de détermination des seuils fondée sur la
fonction de répartition de l’information de Kullback–Leibler. Des tests de performance
seront enfin appliqués sur la base de signaux synthétiques.
MDCS et choix des paramètres 47
Chapitre 3
MDCS et choix des paramètres
3-1 Introduction
Toute méthode de détection de type paramétrique nécessite une adaptation des paramètres en
fonction du signal. Dans ce chapitre nous discutons les choix des modèles pour la représentation
des signaux EMG (et leurs méthodes d’estimation), le choix de l’ordre du modèle et l’influence
de ce choix d’ordre sur la performance de l’algorithme de détection. Nous démontrons
également l’intérêt d’une formulation récursive pour l’estimation des modèles AR au vu du
temps de calcul important nécessaire pour le traitement des signaux EMG de longue durée.
Une des parties originales de ce chapitre est la méthode du choix automatique des seuils qui
permet de régler ces seuils en calculant la distribution de l’information de Kullback-Leibler dans
le signal. Nous verrons que cette information est liée directement au choix du seuil dans un
algorithme de type CUSUM (et donc utilisable également dans l’algorithme MDCS), et qu’il est
possible, connaissant la distribution de cette information, de calculer automatiquement les seuils.
La modélisation d’un signal EMG par un processus aléatoire est fréquemment utilisée par les
chercheurs [Inb84], [Duc93], [Mer99a]. Dans ce paragraphe nous allons comparer l’utilisation de
modèles AR et ARMA pour la modélisation des signaux aléatoires stationnaires réels du type
EMG.
48 MDCS et choix des paramètres
La modélisation d’un signal x(n) consiste à lui associer un filtre linéaire qui, soumis à un bruit
blanc gaussien de moyenne nulle et de variance σ ε2 , reproduit ce signal le plus fidèlement
possible [Boi00].
Le modèle le plus général d’un signal stationnaire correspond à le considérer comme un signal
B( z )
généré par un filtre H ( z ) = excité par un bruit blanc gaussien ε de moyenne nulle et de
A( z )
variance σ ε2 , avec :
q
B( z ) = ∑ bn .z − n
n =0
(3.1)
p
A( z ) = ∑ an .z − n ; a0 = 1
n= 0
Plusieurs méthodes existent dans la littérature pour le calcul des paramètres des différents
modèles [Kay88], [Mar87], [Orf90]. Le choix entre ces modèles dépend en pratique du processus
physique qui génère ce signal [Mar87]. Aussi ce choix dépend des applications pour lesquelles
on doit utiliser le modèle. Par exemple, dans le cas de la détection de non stationnarités, il n’est
pas nécessaire de choisir le modèle exact du processus (si tant est qu’il existe). On peut se
contenter d’un modèle proche s’il traduit bien les changements lorsqu’il est utilisé dans un
algorithme de détection. Dans le cas de la détection, il est possible de choisir des modèles (et des
méthodes associées d’extraction des paramètres) qui simplifient l’algorithme pour minimiser le
temps de calcul mais qui ne doivent pas être trop éloignés du processus réel pour que la détection
des changements s’effectue correctement. Ainsi un modèle bien adapté à l’estimation spectrale
n’est pas nécessairement le meilleur modèle pour résoudre le problème de segmentation (dans la
segmentation on peut choisir des modèles simplifiés [Bas93] afin de réduire les temps de calcul).
Dans le problème d’estimation spectrale, l’essentiel est de choisir un modèle à haute résolution
spectrale, alors que, dans le cas de la détection, le problème est de choisir un modèle qui reflète
bien les non stationnarités, et qui soit bien adapté à l’extraction de paramètres pour une
exploitation ultérieure des segments.
L’estimation des paramètres d’un modèle ARMA consiste tout d’abord à estimer les coefficients
AR de ce modèle, puis à en estimer la partie MA.
La partie AR du modèle ARMA est reliée au coefficient d’autocorrélation par l’équation
matricielle :
La résolution de ce système permet d’obtenir la partie AR d’un processus ARMA. On note que
ces équations s’appellent équations de Yule-Walker modifiées [Mar87]. Ces équations sont
évidemment des équations linéaires. De plus la matrice d’autocorrélation a une structure de
Toeplitz, ce qui permet de résoudre ces équations par des algorithmes plus efficaces que les
algorithmes classiques [Mar87].
Les équations qui relient les coefficients MA aux séquences d’autocorrélation sont :
50 MDCS et choix des paramètres
0 m>q
p
Rxx ( m) = σ ε2 ∑ bn .bn− m 0≤m≤q (3.6)
n =1
Rxx (− m) m<0
3-2-2 Modèle AR
Dans ce paragraphe nous présentons de façon résumée les méthodes les plus connues
d’estimation des paramètres AR. L’estimation de ces paramètres est à la base de l’algorithme de
détection MDCS En l’absence de la connaissance du modèle vrai des signaux, le choix de la
méthode d’estimation influe sur l’algorithme de détection lui- même, ce qui nous conduit à en
faire une comparaison afin de choisir la plus pertinente vis à vis de la détection des changements
dans les signaux EMG.
a) Méthode de Yule-Walker
^ ^ ^
R xx ( 0) R xx (1)........... R xx ( p) 1 σ^ ε
2
^ ^
R xx (1) R xx ( 0) .... ...... R xx ( p − 1) a1 0
^ ^
.
. = . (3.8)
. . .
^ ^
R xx ( p) R xx ( p −1).... R xx ( 0) a 0
^ ^
p
avec
^ 1 N −1−k
R xx (k ) = ∑ x (n ).x ( n + k ) ; k = 0,1,...p (3.9)
N n=0
La méthode consiste donc à remplacer la matrice de corrélation dans l’équation de Yule-Walker
normale par son estimateur biaisé [Kay83]. La matrice reste une matrice de Teoplitz définie
positive et l’algorithme de Levinson peut ainsi s’appliquer pour la résolution du système
d’équations linéaires. Une discussion sur l’efficacité de cette méthode sera proposée par la suite.
b) Méthode de Burg
L’idée de Burg [Kay83] fut de calculer directement à partir des données une estimée des
coefficients de réflexion et ce, sans passer par le calcul des covariances.
On peut calculer les coefficients de réflexion d’une façon récursive sur l’ordre, puis calculer les
paramètres AR par la relation de Levinson :
K^ = −( p∑−1R^ ( p − i ). a^ (i )) / ρ^
p i =0
p −1 p −1
^
a p ( 0) = 1
^
^ ^ ^
a p ( n ) = a p −1 ( n ) + K p . a p −1 ( p − n); n = 2,..., p − 1 (3.10)
^ ^
a p ( n) = K p
^ ^ ^ 2
ρ
p = ρ p −1 (1 − K p )
Dans l’algorithme de Burg on part de l’expression de l’erreur de prédiction « avant » au rang p :
^ f p ^
ε p (i ) = ∑ a p (n ).x (i − n) (3.11)
n =0
Pour trouver un estimateur de KP , Burg propose de minimiser, par rapport à KP , la somme des
1 ^f ^b
erreurs de prédiction avant et rétrograde ( ρ p + ρ p ) avec :
2
2
^ f 1 N −1 ^ f
ρp = . ∑ ε p ( n)
N − p n =p
(3.13)
2
^b 1 N −1− p ^ b
ρp = . ∑ ε p ( n)
N − p n=0
f ^b
N −1 ^
^ − 2 ∑ ε p −1 ( n). ε p−1( n)
n =p
KP = (3.14)
N −1 ^ f ^b
∑ (( ε p −1 ( n)) + (ε p−1 (n )) )
2 2
n= p
donc on peut calculer les coefficients de réflexion d’une manière récursive sur l’ordre. En même
temps on peut calculer les paramètres AR en utilisant (3.10) et en connaissant la relation :
^ f ^ f ^ ^b
ε p (n ) = ε p −1 ( n −1) + K p . ε p ( n − 1)
(3.15)
^b ^b ^ ^ f
ε p ( n) = ε p−1 (n − 1) + K p .ε p ( n − 1)
Une propriété de l’algorithme de Burg est de garantir que les estimées des coefficients de
réflexion sont de module inférieur à 1.
En résumé l’algorithme de Burg s’écrit d’une façon algorithmique comme suit :
MDCS et choix des paramètres 53
^
1 N −1
• R xx (0) = .∑ ( x( n)) 2
N n= 0
^ ^
• ρ 0 = R xx ( 0)
^ f
• ε 0 ( n) = x ( n), n = 1, 2,..., N − 1
^ b
ε 0 ( n) = x (n ), n = 1,2,..., N − 1
• Pour k = 1,..., p
N −1 ^ f ^b
^
− 2 ∑ ε k −1 (n ).ε k −1 ( n)
*Kk = N −1
n= k
^ f ^b
∑ ((ε k −1 (n )) + (ε k −1(n)) )
2 2
n =k
^ ^ ^
* ρ k = (1 − K k ). ρ k −1
2
^ ^ ^
^
a k −1 (i ) + K k . a k −1( k − i ), pour i = 1,2,..., k - 1
* a k (i ) = ^
K k , pour i = k
^ f ^ f ^ ^b
* ε k (n ) = ε k −1 ( n −1) + K k . ε k ( n − 1) , pour n = k + 1, k + 2,..., N - 1 (3.16)
^ b ^b ^ ^ f
* ε k ( n) = ε k −1 (n − 1) + K k .ε k ( n − 1) , pour n = k , k + 1,..., N - 2
c) Méthode de Covariance
La méthode de Yule-Walker minimise l’erreur de prédiction sur l’ensemble des données x(n), ce
qui oblige à compléter la séquence par des zéros au début et à la fin des données.
Dans la méthode de covariance on fait la minimisation uniquement sur les données. Il faut donc
minimiser :
N + P −1 2 N + P −1 P
∑ ε Pf ( n) = ∑ ( x (n ) + ∑ ak .x (n − k )) 2 (3.17)
n =0 n =0 k =1
^
C xx (1,1) Cxx (1,2)...........Cxx (1, p ) a1 Cxx (1,0)
^
C xx ( 2,1) Cxx ( 2,2)...........Cxx (2, p ) a2 Cxx ( 2,0)
. = − . (3.18)
.
. . .
^
C xx ( p,1) C xx ( p,2)...........Cxx ( p , p) Cxx ( p,0)
ap
^2 N −1 2 P ^
σ ε = min( ∑ ε Pf (n )) = Cxx (0,0) + ∑ a( k ).Cxx (0, k ) (3.19)
n =P k =1
avec
1 N −1
C xx ( j , k ) = ∑ x( n − j ).x (n − k ); 0 ≤ j ≤ p et 0 ≤ k ≤ p (3.20)
N − p n= p
On note que la matrice de covariance n’est pas de Toeplitz et que l’algorithme de Levinson ne
peut pas être utilisé pour la résolution du système linéaire. La matrice est par contre symétrique
définie positive, donc l’algorithme de Cholesky peut être utilisé pour la résolution du système
[Mar87].
On note aussi que le système calculé par la méthode de covariance ne garantit pas la stabilité
[Kay88]. Cependant cette instabilité partielle est rarement rencontrée en pratique [Kun91]. Il est
donc possible d’utiliser cet algorithme pour l’estimation des paramètres AR dans le problème de
détection posé dans le cadre de ce travail.
Cette méthode utilise la même démarche que précédemment mais en minimisant cette fois la
somme des erreurs de prédiction avant et arrière.
On minimise donc la somme :
N −1 N −1 − p
f2 b2
∑ ε p ( n) + ∑ ε p ( n) (3.21)
n= p n= 0
On arrive aux mêmes formes d’équations que pour la méthode de covariance mais avec :
1 N −1 N −1− p
C xx ( j , k ) = ( ∑ x( n − j ).x (n − k ) + ∑ x( n + i ). x( n + p)) (3.22)
2.( N − p) n= p n= 0
MDCS et choix des paramètres 55
L’estimation à chaque instant des paramètres AR pour les deux modèles « before » et «after »
dans la méthode MDCS rend inenvisageable l’utilisation de méthodes non récursives la
segmentation des signaux EMG de longue durée.
Il faut donc chercher à rendre récursives le plus possible les méthodes d’estimation AR, et ceci
pour les deux fenêtres « before » et « after ».
La différence entre les deux cas est que dans le premier la fenêtre s’accroît à chaque instant d’un
point, alors que la deuxième fenêtre est une fenêtre mobile de taille fixe N (à chaque pas un point
sort de la fenêtre et un autre y rentre).
Dans la littérature des algorithmes récursifs de type LMS et RLS [Mar87] sont décrits pour la
première fenêtre. Ces algorithmes sont cependant lourds à utiliser car leur principe repose sur
une méthode itérative pour laquelle se posent des problèmes de choix des conditions initiales et
des paramètres de convergence.
En général, pour les algorithmes d’estimation AR (dans les cas de Yule-Walker, de covariance et
de covariance modifiée), le temps de calcul le plus important concerne le calcul
d’autocorrélation ou de covariance, et non l’inversion de matrices d’autocorrélation ou de
covariance (car ce sont des matrices d’ordre p généralement faible). Il est donc utile de
rechercher la récursivité essentiellement pour les calculs d’autocorrélation et de covariance.
Pour l’algorithme de Burg, il est très difficile d’avoir une récursivité sur les échantillons (car le
principe même de l’algorithme utilise tous les échantillons disponibles).
Pour l’algorithme de Yule-Walker, on peut voir facilement que pour la fenêtre allant de 1 à j - p :
^ ( j) 1 j− p− k
R xx ( k ) = ∑ x (n ).x (n + k ) (3.23)
j − p n=1
alors :
^ ( j) ^ ( j −1)
( j − p ). R xx (k ) = ( j − p − 1). R xx ( k ) + x( j − p − k ). x( j − p ) (3.24)
et donc :
^ ( j) j − p − 1 ^ ( j−1) 1
R xx ( k ) = R xx (k ) + x( j − p − k ). x( j − p ) (3.25)
j− p j−p
^ ( j)
1 j +N
R xx ( k ) = ∑ x (n ).x (n + k ) (3.26)
N n = j +1
donc à l’instant j+1 on a :
^ ( j +1)
1 j + N +1
R xx ( k ) = ∑ x( n). x( n + k ) =
N n = j +2
(3.27)
^ ( j)
1
R xx ( k ) + [ x( j + N + 1). x( j + N + 1 + k ) − x( j + 1).x ( j + 1 + k )]
N
On peut faire le même calcul pour les covariances dans les deux algorithmes de covariance et de
covariance modifiée.
On voit donc qu’il est aisé rendre récursifs (plus précisément semi-récursifs) les trois algorithmes
(Yule-Walker, covariance et covariance modifiée) d’estimation AR nécessaires à l’algorithme
MDCS, de façon à réduire notablement le temps de calcul.
Le choix de la méthode d’estimation est un point très important, lié à l’utilisation ultérieure des
paramètres estimés. La comparaison entre les méthodes va être faite ici sur la base des
performances obtenues par l’algorithme de détection associé aux modèles AR estimés. Les
résultats sont fo ndés sur une étude en simulation.
L’idée est de remplacer, dans l’algorithme CUSUM, les vraies valeurs des paramètres par les
estimations de ces paramètres obtenues selon les différentes méthodes, et de voir comment
évolue la fonction de détection de l’algorithme CUSUM. Les résultats obtenus seront
évidemment directement transposables à l’algorithme MDCS puisque la base de cet algorithme
repose sur l’algorithme CUSUM.
On verra (voir § 3-3-3) que l’espérance de si sous l’hypothèse H1 est telle que
Eθ1 [ si ] = K (θ 1 , θ 0 ) . Donc, après un temps τ , la fonction de détection g de l’algorithme CUSUM
1
est telle que .Eθ [ g (τ )] ≈ K (θ 1, θ 0 ) . La simulation consiste alors à générer les signaux suivant
τ 1
deux processus AR différents et à observer l’évolution de la fonction de détection d’une part
quand on utilise les vrais paramètres dans l’algorithme CUSUM, d’autre part lorsqu’on remplace
ces paramètres par leurs estimés suivant les différentes méthodes. On calculera également la
MDCS et choix des paramètres 57
moyenne de la fonction de détection sous l’hypothèse H1 pour voir dans quel cas elle fournit une
bonne approximation de la vraie valeur de l’information de Kullback- Leibler.
a) signaux de simulation
La simulation a consisté à générer 100 segments (50 pour le modèle AR0 , 50 pour le modèle
AR1 ). Chaque segment correspond aux 1000 derniers points d’un signal de 100000 échantillons
afin d’éviter les effets transitoires des filtres AR. Dans chaque cas on estime le modèle sur des
fenêtres de N=50, N=100, N=200 points.
et de variance 1
et de variance 25.
L’information de Kullback calculée par la formule (A.9) (voir Annexe A) entre ces deux
modèles est 11.1667 (en prenant un développement de Taylor jusqu’à l’ordre 8).
- On a ensuite considéré des modèles d’ordre 4 qui correspondent au cas de processus de type
« filtre bande étroite » :
et de variance 1
et de variance 25.
TAB 3.1 – Valeur de l’information de Kullback moyenne atteinte par la fonction de détection
dans l’algorithme CUSUM en utilisant les vrais paramètres, puis les paramètres estimés par les
4 méthodes d’estimation pour N=50, 100, 200. Cas de filtre large bande
N=50
N=100
N=200
TAB 3.2 – Evaluation de la fonction de détection dans l’algorithme CUSUM en utilisant les
vrais paramètres, et les paramètres estimés par les 4 méthodes d’estimation pour N=50, 100,
200. (Le test est répété 50 fois)- Cas de filtrage large bande. Axes des abscisses : nombre de
points. Axes des ordonnées : valeur de la somme cumulée.
MDCS et choix des paramètres 59
TAB 3.3 – Valeur de l’information de Kullback moyenne atteinte par la fonction de détection
dans l’algorithme CUSUM en utilisant les vrais paramètres, et les paramètres estimées par les 4
méthodes d’estimation pour N=50, 100, 200- Cas de filtrage bande étroite.
N=50
N=100
N=200
TAB 3.4 – Evaluation de la fonction de détection dans l’algorithme CUSUM en utilisant les
vrais paramètres, et les paramètres estimés par les 4 méthodes d’estimation pour N=50, 100,
200. (Le test est répété 50 fois) - Cas de filtrage bande étroite. Axes des abscisses : nombre de
points. Axes des ordonnées : valeur de la somme cumulée.
60 MDCS et choix des paramètres
On voit dans le cas du modèle « large bande » (tableau 3.1) que, lorsqu’on utilise les vrais
paramètres, alors la valeur de l’information de Kullback estimée à partir de la fonction de
détection est très proche de la valeur réelle. Il en est de même dans le cas d’utilisation des
valeurs estimées par les 4 méthodes et pour les différentes valeurs de N.
Sur les figures du tableau 3.2 les faisceaux des fonctions de détection sont évidemment plus
serrés dans le cas des vrais paramètres. De même, dans le cas des paramètres estimés, ces
courbes deviennent naturellement de plus en plus serrées lorsque N augmente.
Dans le cas du modèle «bande étroite » (tableau 3.3), on remarque que la valeur estimée de
l’information de Kullback est éloignée de la valeur réelle dans le cas de la méthode de Yule-
Walker, bien qu’elle se rapproche de la valeur réelle lorsque N augmente. Pour les trois autres
méthodes on voit que l’approximation est bonne, ces méthodes donnant à peu près les mêmes
résultats.
Les figures du tableau 3.4 montrent bien la dispersion plus grande de la fonction de détection
dans le cas de la méthode de Yule-Walker.
La conclusion que l’on peut tirer de cette étude de simulation est que toutes les méthodes
peuvent être utilisées dans le cas de processus AR de type « filtre large bande », mais que dans le
cas de « filtre bande étroite » la méthode de Yule-Walker (probablement du fait qu’elle utilise
une procédure d’addition de zéros sur les données) donne de moins bons résultats et fournit des
valeurs plus faibles pour la fonction de détection, ce qui oblige à choisir des seuils plus bas, donc
à aboutir à davantage de fausses alarmes. C’est pour cela que dans le cas général de
segmentation il est légitime d’éliminer cette méthode pour un algorithme de segmentation de
type CUSUM.
En tenant compte des remarques sur la récursivité, le choix final s’est porté sur la méthode de
covariance car la récursivité est simple à mettre en oeuvre et le temps de calcul est plus faible
que pour la méthode de covariance modifiée alors qu’elle aboutit au même résultat vis à vis du
problème de détection de changement.
MDCS et choix des paramètres 61
Dans le cas de signaux réels, et lorsqu’ils sont modélisés par un modèle AR, l’ordre du modèle
n’est pas connu a priori. Plusieurs critères peuvent être utilisés pour la sélection de l’ordre, ces
critères étant principalement fondés sur l’évolution de l’erreur de prédiction [Kay88], [Mar87].
Deux critères sont proposés par Akaike. Le premier est l’erreur de prédiction finale (FPE)
[Mar87]. L’erreur de prédiction finale est définie pour un processus AR par :
^ N + ( p + 1)
FPE( p ) = ρ p ( ) (3.28)
N − ( p + 1)
^
avec N le nombre d’échantillons, p l’ordre du modèle, et ρ p l’estimée de la variance du bruit
blanc à l’ordre p. L’ordre choisi est celui qui rend la fonction FPE minimale.
Le deuxième est le critère AIC (Akaike Information Criterion) [Aka74]. La fonction AIC pour
un processus AR est donnée par :
^
AIC ( p ) = N . ln( ρ p ) + 2. p (3.29)
Comme précédemment l’ordre choisi est celui qui minimise la fonction AIC.
Les deux critères sont équivalents asymptotiquement [Mar87], mais le critère AIC est plus
performant pour les faibles échantillons [Kay83]. En fait ces critères ne peuvent être utilisés
systématiquement sans précaution dans la pratique, mais ils servent de première approche pour le
choix de l’ordre [Mar87]. On note que dans le cas des signaux EMG, le bruit peut être important
et ces critères de sélection de l’ordre ne sont plus utilisables dans de bonnes conditions [Kay88],
[Kor99].
Considérons le cas d’un changement d’un modèle AR0 d’ordre p à un modèle AR1 d’ordre q. On
suppose que p < q.
avec :
q
ε i0 = xi + ∑ a 0k .xi −k ; a 0p+1 = ... = aq0 = 0 (3.31)
k =1
q
ε 1i = xi + ∑ a1k .xi −k (3.32)
k =1
Il est clair que l’algorithme de détection doit être appliqué en utilisant comme modélisation AR
l’ordre le plus élevé rencontré dans les différents segments du signal.
Pour illustrer le fait que la détectabilité se conserve en prenant comme modèle le modèle d’ordre
le plus grand, prenons les deux modèles suivants :
θ 0 = (a10 = 0.1000, σ 02 = 1)
de coefficient de réflexion K1 =0.1 et de variance 1
θ1 = ( a11 = 0.14, a12 = 0.4000, σ 12 = 1)
de coefficients de réflexion K1 =0.1, K2 = 0.4 et de variance 1, deux modèles peu différents.
Construisons ensuite 50 réalisations d’un signal dont les premier 1000 points sont générés par le
premier processus et les 1000 points suivants par le second processus.
On estime alors les deux modèles par la méthode de covariance (méthode retenue au paragraphe
précédent ) en utilisant l’ordre 2 comme ordre pour l’estimation. En utilisant ces valeurs
estimées, l’évolution de la somme cumulée est présentée sur la figure 3.1.
MDCS et choix des paramètres 63
FIG. 3.1 – Evaluation de la somme cumulée pour des modèles estimés en utilisant l’ordre le plus
grand. Axe des abscisses : nombre de points. Axe des ordonnées : valeur de la somme cumulée.
On voit bien sur cette figure que l’estimation des deux modèles en utilisant l’ordre le plus élevé
préserve la détectabilité.
On considère à présent deux processus AR0 (p) et AR1 (p). L’objet de ce paragraphe est d’étudier
le comportement de l’algorithme de détection en modélisant les deux processus par un modèle
d’ordre q cette fois inférieur à l’ordre réel p.
La relation entre AR0 (q) et AR0 (p) d’une part et AR1 (q) et AR1 (p) d’autre part est obtenue
facilement par l’équation de Levinson inverse (voir Annexe B).
L’intérêt de cette étude est que, dans le cas pratique, l’ordre du modèle n’est pas connu. Il faut
alors voir comment la fonction de détection se comporte si les processus sont modélisés par des
modèles dont l’ordre est inférieur à l’ordre réel.
On sait que lors d’un changement d’un processus A 0p ( z) vers un processus A1p ( z) , les
1 σ 02 σ 02 ∞
Eθ 0 [ s ] = [1 + ln 2 − 2 (1 + ∑ ( c1k / 0 ) 2 )]
2 σ1 σ1 k =1
(3.33)
64 MDCS et choix des paramètres
1 σ 12 σ12 ∞
Eθ1 [ s] = [−1 − ln 2 − 2 (1 + ∑ ( c0k /1 ) 2 )]
2 σ0 σ0 k =1
Quand on remplace ces deux polynômes par leur équivalent d’ordre q A 0q ( z) et A1q ( z) ,
∞
'2
'1 2
E[(ε k ) ] = σ0 .(1 + ∑ (c'k1 / 0 )2 ) (3.37)
k =1
et comme on a :
A 1q ( z) ∞
=1+ ∑ c 'k1/0 .z − k (3.38)
A 0q ( z) k=1
alors :
1 σ '2 σ ' 2 ∞
Eθ 0 [ s ] = [1 + ln '02 − 0'2 (1 + ∑ ( ck'1/0 ) 2 )] (3.39)
2 σ1 σ1 k =1
1 σ '2 σ '2 ∞
Eθ1 ( s) = [ −1 − ln 1'2 − 1'2 (1 + ∑ (ck'0 /1 ) 2 )] (3.40)
2 σ0 σ 0 k =1
On voit ici qu’il y a une différence dans l’expression des espérances mathématiques lorsqu’on
utilise un modèle d’ordre plus petit. On va voir que cette différence correspond généralement à
des espérances mathématiques plus faibles que les espérances mathématiques réelles (et donc à
des résultats de détection moins performants, car on est obligé d’utiliser des seuils plus bas). Il
est même possible d’aboutir à des cas où ces espérances mathématiques sont nulles, donc à une
impossibilité de détection.
MDCS et choix des paramètres 65
On a alors :
A1( z) 1 + a11.z −1 ∞
1 / 0 −k
= = 1 + ∑ c k .z (3.41)
A 0 ( z ) 1 + a1 .z
0 −1
k =1
On peut voir facilement et par divisions successives de ces deux polynômes que :
∞ ∞ ( a11 − a 10 ) 2
1+ ∑ ( c1k/ 0 ) 2 = 1 + ( a 11 − a 1 ) . (a 10 ) 2.( k −1)
0 2
∑ =1+ .
k=1 k =1 1 − ( a 10 ) 2
ce qui donne :
1 σ 02 σ 02 (a11 − a10 )2
Eθ0 [ s] = .[1 + ln 2 − 2 .(1 + )] (3.42)
2 σ1 σ1 1− (a10 )2
De même on a :
1 σ2 σ2 ( a1 − a 0 ) 2
Eθ1 [ s] = .[ −1 − ln 12 + 12 .(1 + 1 11 2 )] (3.43)
2 σ0 σ0 1 − ( a1 )
σ2
modèle d’ordre 0 avec A ( z ) = 1 et σ = '2
.
1− a 2
Le logarithme du rapport de vraisemblance est alors :
1 σ 02 σ 02 (a11 − a10 )2
Eθ0 [ s] = .[1 + ln 2 − 2 .(1 + )] (3.45)
2 σ1 σ1 1− (a10 )2
~
1 σ 02 1 − (a11) 2 σ12 1 − (a11 )2
Eθ1 [ s] = .[−1+ ln 2 . + . ] (3.46)
2 σ1 1− (a10 )2 σ 02 1− (a10 )2
On peut voir que si on prend :
a 11 = 1 − ( σ1 ) 2 et a10 = 1 − (σ0 ) 2
~
On aboutit alors à Eθ 1[ s] = 0 bien que Eθ 1[ s] ≠ 0 .
On voit sur cet exemple que la propriété de détectabilité n’est plus vérifiée.
66 MDCS et choix des paramètres
Les fonctions de détection obtenues avec les paramètres réels et les paramètres du modèle
d’ordre 0 équivalent sont présentées sur la figure 3.2.
(a) (b)
FIG. 3.2 – a) Evaluation de la fonction de détection par les paramètres réels, b) Evaluation de la
fonction de détection par les paramètres d’ordre 0 équivalents. Axe des abscisses : nombre de
points. Axe des ordonnées : valeur de la fonction de détection.
On voit que lorsqu’on utilise les vrais modèles on a clairement une détection, tandis que dans le
cas d’utilisation des modèles équivalents d’ordre plus petit la fonction de détection reste au
voisinage de 0.
Ce contre exemple illustre le fait qu’une non détectabilité peut être observée quand on utilise un
ordre plus faible que l’ordre réel.
Dans d’autres configurations, on peut observer une diminution de la fonction de détection du fait
d’une valeur sous-estimée de l’espérance du logarithme de vraisemblance :
~
Eθ 1[ s] < Eθ 1[ s ] (3.47)
Par exemple dans le cas où : θ 0 = ( a10 = 0.1; a20 = 0.95; σ 02 = 4) et θ1 = ( a11 = 0.6; a12 = 0.95; σ 12 = 1) ,
si on utilise les modèles d’ordre 1 équivalents à ces deux modèles on aboutit au résultat présenté
sur la figure 3.3.
MDCS et choix des paramètres 67
FIG. 3.3 – Evaluation de la fonction de détection par les paramètres du modèle vrai (d’ordre 2) ,
et à partir des paramètres du modèle d’ordre 1 équivalent. Axe des abscisses : nombre de points.
Axe des ordonnées : valeur de la fonction de détection.
On voit bien que l’utilisation d’un ordre plus petit conduit généralement à une dégradation de la
détection, car soit on perd la détectabilité, soit il est nécessaire de prendre des seuils plus bas, ce
qui augmente le taux de fausses alarmes.
Quand les signaux EMG de surface sont représentés par un modèle AR, il n’y a pas un ordre
unique quel soit le type de signal. En effet l’ordre varie en fonction du protocole expérimental et
des conditions de recueil des signaux.. Par exemple, dans [Hef88] l’ordre choisi est 4, alors que
d’autres comme [Gra89b] utilisent 6 comme ordre. Dans le cas d’estimation spectrale, l’ordre
utilisé par [Sei87] est de 15, alors que dans [Coa83] un ordre de 8 est utilisé pour le même
problème d’estimation spectrale.
Dans notre cas, étant donné que le rapport signal sur bruit est petit, un ordre de 20 a été utilisé.
Ce choix est justifié par le fait que, dans le cas d’un faible rapport signal sur bruit, il faut utiliser
un ordre supérieur afin de tenir compte de la présence du bruit additif.
68 MDCS et choix des paramètres
Quand on utilise un algorithme de détection sur des données réelles, il est difficile de connaître
l’ordre réel du processus. D’une part les critères de sélection d’ordre ont une tendance à sous-
estimer l’ordre réel du processus. D’autre part l’ordre du modèle peut varier d’un segment à
l’autre, alors que les algorithmes sont construits pour travailler avec un ordre fixé à l’avance.
Il a donc été nécessaire d’étudier l’effet de l’utilisation d’un ordre plus petit ou plus grand sur la
détectabilité de l’algorithme CUSUM.
Certains auteurs [Bas83b], [Obr88a], [Bas93] utilisent des ordres plus petits que les ordres réels
pour l’algorithme de détection, en particulier dans le cas du traitement des signaux de parole. En
fait, comme nous l’avons montré, l’utilisation d’une ordre inférieur peut conduire à une perte de
détectabilité et amener à utiliser des seuils plus bas augmentant ainsi le taux de fausses alarmes.
En conclusion l’utilisation d’ordres inférieurs à l’ordre réel, malgré le fait que cela rende
l’algorithme de détection plus rapide, doit être évitée si cela ne crée pas d’incompatibilités en
temps de calcul.
L’utilisation d’un ordre plus grand n’affecte pas réellement la détection (à condition qu’il ne soit
pas trop élevé), mais augmente le temps de calcul. Compte tenu de la présence d’un bruit
important (signaux posturaux) nous sommes contraints de choisir un ordre plus élevé que ce qui
est généralement préconisé dans la littérature consacrée à la modélisation de l’EMG de surface.
Dans la suite de ce travail, compte tenu de l’ensemble de ces éléments, un ordre 20 sera retenu
pour toute modélisation AR.
Dans tous les algorithmes de détection et de segmentation, le choix du seuil est très important et
influe beaucoup sur le résultat final de la segmentation. Il faut noter que le choix d’un seuil bas
conduit à une sur segmentation, et qu’un seuil haut conduit à une mauvaise détection.
Evidemment il n’existe pas un seuil unique qui serait applicable à tous types de signaux, et le
seuil varie d’un type d’application à un autre [Bas93], [Obr97], [Kha00]. Pour tous les
algorithmes de type CUSUM, il n’existe que des formules asymptotiques pour le calcul du seuil,
qui sont calculées en fonction de la probabilité de fausse alarme ou du retard moyen à la
MDCS et choix des paramètres 69
détection. Ces formules sont difficiles à utiliser en pratique car elles restent des formules
asymptotiques. Le problème du choix du seuil en fonction du type de signal reste donc un
problème ouvert. Nous proposons dans ce paragraphe une méthode originale de détermination
automatique du seuil pour l’algorithme MDCS, qui a démontré son efficacité lorsqu’on
l’applique à des signaux EMG de surface.
T = E θ0 ( t a ) (3.48)
- le temps moyen de retard à la détection, défini par :
τ = E θ1 ( ta ) (3.49)
Il est démontré que l’algorithme CUSUM est asymptotiquement optimal [Bas93], dans le sens où
il minimise le temps moyen de retard à la détection lorsque le temps moyen entre fausses
alarmes tend vers l’infini.
Beaucoup d’études ont été développées pour relier le seuil h à ces deux indices de performance
[Bas93], [Nik95], [Lai98], [Nik00]. Il a en particulier été démontré [Bar00] que :
h + C1
τ≤ (3.50)
K (θ 1, θ 0 )
e h − h − C2
T≥ (3.51)
K (θ 0 , θ1 )
• h est le seuil
• K (θ 0 ,θ 1 ) et K (θ 1, θ 0 ) sont les deux informations de Kullback-Leibler
• C1 = sup Eθ1 [ si − λ / si ≥ λ > 0], C2 = C1 − 1
λ >0
Bien que ces deux formules démontrent l’optimalité asymptotique, elles ne peuvent pas être
utilisées simplement pour le choix du seuil h, en particulier parce qu’il est très difficile de fixer
de façon objective les deux temps T et τ.
70 MDCS et choix des paramètres
L’information de Kullback- Leibler joue un rôle important dans la capacité d’un algorithme à
détecter un changement. Aussi cette information peut permettre le choix du seuil dans des
algorithmes de type CUSUM, compte tenu également du nombre des échantillons.
Par définition [Bor87], [Bas93] l’information de Kullback-Leibler entre les deux densités de
probabilité f θ0 et f θ1 d’une variable aléatoire y est donnée par :
f θ0 ( x )
K (θ 0 , θ1 ) = ∫ ln fθ 0 ( x ) dx
f θ1 ( x)
= Eθ 0 [ −s ] = − Eθ 0 [ s ] ≥ 0 (3.52)
De même :
f θ1 ( x)
K (θ1, θ 0 ) = ∫ ln fθ1 ( x ) dx = Eθ1 [ s ] ≥ 0 (3.53)
fθ 0 ( x )
h ≈ M .Eθ1 [ s] (3.56)
Dans le cas d’hypothèses connues, on peut calculer l’information de Kullback-Leibler entre ces
différentes hypothèses, et en fixant la taille M du segment minimal à détecter, on peut fixer le
seuil en fonction de l’information de Kullback-Leibler minimale dans le signal. De cette manière
on garantit la détection de tous les changements de taille supérieure à M, comme l’indique la
formule (3.57).
Dans le cas d’hypothèses inconnues, on ne connaît pas les valeurs de l’informations de Kullback-
Leibler entre les différentes hypothèses. Il et donc difficile de fixer le seuil en fonction de cette
information de Kullback-Leibler minimale inconnue. Notre approche consiste alors à balayer le
signal en estimant de façon rapide, la répartition de l’information de Kullback-Leibler sur toute
la durée du signal, puis à proposer des valeurs de seuils compte tenu de cette répartition. Cette
approche est décrite dans le paragraphe suivant.
Cette approche est fondée sur la formule (3.57). Son principe consiste à balayer le signal et à
estimer la fonction de répartition de l’information de Kullback-Leibler tout au long du signal.
Cette répartition pourra nous permettre de fixer ensuite les seuils hL et hH nécessaires à
l’algorithme de détection. On note que ce calcul de seuil ne peut se faire que lorsqu’il s’agit de
signaux de longue durée, afin d’assurer une estimation correcte de la fonction de répartition de
l’information de Kullback-Leibler.
3- De la séquence IKLt on ne considère que 85% des points correspondant à des valeurs de
l’informatio n de Kullback-Leibler en l’absence de changement (ce choix heuristique est une
extrapolation linéaire de la première moitié de la séquence, correspondant à des valeurs de
l’information de Kullback-Leibler en l’absence de changement dans les signaux étudiés. Une
justification de cette hypothèse sur la base des signaux réels sera donnée dans le chapitre 5).
On obtient alors une séquence IKLb qu’on estime comme étant la partie du signal où il n’y a
pas de changements dans le signal.
4- On calcule ensuite la racine carrée de la moyenne de la somme des carrés de IKLb, soit
MS IKL cette somme (estimation d’une valeur RMS).
5- Soit M la longueur minimale du segment à détecter. Alors on prend comme valeur du seuil
bas h L = M .K L .MS IKL , et comme va leur du seuil haut hH = M .K H .MS IKL .
Dans le paragraphe précédent, l’équation 3.57 a montré le lien direct qui pouvait être établi entre
l’information de Kullback-Leibler, le nombre M d’échantillons nécessaires à la détection, et la
valeur du seuil.
Pour cette équation, l’information de Kullback-Leibler considérée résultait de la distance entre
les modèles θ 0 et θ1 .
Ici seul le modèle θ 0 est considéré, et le choix du seuil dépend essentie llement de la variance de
^1 ^2
K (θ 0 ,θ 0 ) (c.à.d. de deux estimateurs de θ 0 ), liée à la variance de l’estimateur du modèle sous
H0 , elle même dépendant des caractéristiques du signal réel à modéliser.
M.MS IKL représente donc la valeur la plus petite possible à partir de laquelle on est capable de
détecter l’événement de paramètre θ1 le plus court possible (M) différant le moins possible du
modèle θ 0 . Cette quantité doit donc constituer le seuil bas de l’algorithme de détection, et KL
devrait être égal à 1 (ceci sera vérifié au paragraphe suivant). Nous avons ensuite posé comme
hypothèse que KH était indépendant du signal (les caractéristiques du signal étant contenues dans
MSIKL) mais lié à la méthode de détection utilisée. KH peut donc être déterminé à partir de
n’importe quel signal de simulation. On vérifiera ensuite cette hypothèse sur des signaux réels
expertisés.
MDCS et choix des paramètres 73
FIG. 3.9. - Variation de l’erreur relative de segmentation suivant les valeurs des coefficients
KL (axe y) et K H (axe x)
Dans ce paragraphe nous allons décrire l’algorithme général de segmentation tel qu’il ressort des
différents choix opérés dans les chapitres précédents en y ajoutant des procédures permettant
74 MDCS et choix des paramètres
d’améliorer encore la détection de changements, cette fois de façon heuristique, en faisant les
constats suivants :
- On peut remarquer tout d’abord que des changements qui ne sont pas détectés dans le sens
direct, peuvent être détectés dans le sens inverse. Ce phénomène est dû en partie au fait que
les informations de Kullback-Leibler ne sont pas symétriques, K (θ 0 , θ1 ) ≠ K (θ 1,θ 0 ) . Ce
même phénomène est aussi observé dans d’autres domaines d’applications et par d’autres
chercheurs, par exemple dans le traitement de la parole [Obr88a], [Bas93]. Une première
modification à l’algorithme de segmentation consiste, à chaque fois qu’on détermine unn
point de changement dans le sens direct, à lancer l’algorithme de détection dans le sens
inverse à partir de ce point. Si le changement détecté en inverse correspond au même point
que celui détecté en sens direct (à quelques points près), on conserve ce point comme le vrai
instant de changement et on continue la détection dans le sens direct. Sinon on reprend la
détection dans le sens direct à partir du point détecté dans le sens inverse. Cette étape
supplémentaire dans l’algorithme de segmentation a pu améliorer la qualité de la
segmentation, car elle prend en compte le fait que la ré-estimation des paramètres de
l’hypothèse H0 peut se faire dans de mauvaises conditions sur des segments trop courts. Les
segments ainsi générés peuvent être de taille inférieure à N+p (N taille de la fenêtre
d’estimation, p ordre du modèle AR). Il faut alors les éliminer.
- On a remarqué également que des segments de taille N+p sont fréquemment détectés. Ces
segments sont dus à la présence de transitoires courts mais d’énergie élevée (mouvements
rapides du sujet par exemple). Ces pics sont bien détectés mais engendrent des segments de
taille exactement égale à N+p (taille minimale nécessaire à la ré-estimation des paramètres de
H0 ). La taille de ces segments est donc totalement artificielle. Il faut donc les éliminer. De
façon plus générale, il a été décidé d’éliminer tous les segments de petite taille, car ils sont
dus soit à des pics d’énergie soit à des segments pour lesquels les modèles AR ont été mal
estimés. La conséquence pour l’algorithme de segmentation est alors que, chaque fois qu’un
segment de petite taille est détecté, on élimine ce segment et on retourne au point de
changement précédent pour redémarrer l’algorithme de détection. La taille minimale des
segments à conserver est dépendante de l’application. Elle sera définie au chapitre 5.
Ces ajustements de l’algorithme de segmentation ont permis d’obtenir des résultats encore
meilleurs sur les signaux réels (la présence de transitoires courts n’ayant pas été considérée en
simulation). Pour terminer, notons que l’algorithme a été programmé en langage C, ce qui, pour
MDCS et choix des paramètres 75
3-5 Conclusion
Dans ce chapitre nous avons présenté une méthodologie pour le choix des différents facteurs qui
influencent la performance d’un algorithme de segmentation. Nous avons en premier lieu abordé
le thème du choix du modèle de représentation du signal dans le but d’utiliser ensuite ce modèle
pour un suivi des changements spectraux du signal au cours de temps.
Les signaux SEMG produits par l’expérimentation étant très bruités, un modèle ARMA aurait
été le meilleur pour représenter les signaux. Cependant la complexité de l’estimation des
paramètres d’un modèle ARMA et la possibilité de le remplacer par un modèle AR d’ordre plus
élevé nous a conduits à l’utilisation d’un modèle AR d’ordre 20.
Comme nous l’avons souligné, il existe plusieurs méthodes pour estimer un modèle AR, ces
méthodes influant beaucoup sur la qualité de l’algorithme de segmentation. Pour effectuer un
choix entre ces méthodes, nous avons utilisé deux critères, l’un étant l’influence de la méthode
d’estimation sur la performance de l’algorithme de détection, l’autre étant la possibilité de mise
en place d’un calcul récursif (ou semi récursif) pour accélérer la vitesse de l’algorithme de
segmentation, compte tenu en particulier de la taille et du nombre des signaux à traiter. La
méthode de covariance a été retenue sur la base de ces deux critères.
L’ordre du modèle est un autre paramètre très important pour la qualité de l’algorithme de
segmentation. Nous avons constaté que les critères classiques ne donnaient pas un ordre correct
dans le cas des signaux réels, surtout en présence d’un niveau de bruit élevé. Nous avons
également montré que l’utilisation d’un ordre plus petit que l’ordre réel influe beaucoup sur la
performance des algorithmes de détection, alors que l’utilisation d’un ordre grand modifie peu
ces performances. Un ordre 20 a été alors retenu pour la modélisation des signaux SEMG.
Un problème majeur abordé dans ce chapitre est le choix du seuil, ce choix étant toujours crucial
pour un algorithme de segmentation. Dans la plupart des travaux issus de la bibliographie ce
choix reste expérimental, peu satisfaisant et très difficile à faire dans le cas du traitement d’un
nombre important de signaux longs. Nous avons alors développé une démarche originale à
double seuil, en nous fondant sur la distribution de l’information de Kullback-Leibler dans le
signal. Cette approche montrera ses qualités dans le cas des signaux SEMG de longue durée
(chapitre 5).
La phase de segmentation étant effectuée, il reste à mettre en place une procédure de
classification des segments obtenus, afin de ne retenir que ceux d’entre eux qui correspondent à
l’activité analysée, ici l’activité tonique ou activité de maintien postural. Il faut par contre rejeter
les segments contenant des activités phasiques, ou présentant un rapport signal sur bruit trop
MDCS et choix des paramètres 77
Chapitre 4
Rejet et Classification
4-1 Introduction
rejet d’abord à base de modèle AR, puis fondées sur une modélisation spécifique du spectre de
l’EMG.
Le chapitre se terminera par une proposition de classification entre activités phasiques et
activités toniques.
Le périodogramme est une méthode d’estimation spectrale non paramétrique qui n’impose
aucun modèle pour le signal. Elle est fondée sur la transformation de Fourier discrète.
Soit N échantillons du signal x0 , x1 , …. , xN-1 , le périodogramme est défini par [Mar87], [Kay88],
[Orf90], [Kun91] :
2
^
1 N −1 − j 2 πfn
S PER ( f ) = ∑ xn .e (4.1)
N n=0
2
^ ^
Il faut noter que cet estimateur est biaisé. De plus on montre que Var ( S PER ( f )) ≈ S PER ( f )
quelque soit N [Kay88] [Kun91]. Cet estimateur donc est inconsistant, la variance du
périodogramme étant très grande. Pour réduire cette variance Bartlett [Pro96] [Bar48] a proposé
une modification au périodogramme. Dans la méthode de Bartlett les segments de taille N sont
divisés en K segments de M points non superposés. Pour chaque segment on calcule le
périodogramme puis on définit le périodogramme de Bartlett comme étant la moyenne de ces
périodogrammes élémentaires. Le périodogramme de Bartlett, appelé aussi périodogramme
moyenné, diminue la variance par un facteur K, mais réduit en même temps la résolution
spectrale du même facteur K. Il faut donc trouver un compromis dans le choix de K entre la
résolution spectrale et la diminution de variance.
En réalité, parmi les méthodes d’estimation non paramétriques, on utilise plutôt la méthode du
périodogramme moyenné modifié ou méthode de Welsh [Pro96]. Cette méthode diffère de la
méthode de Bartlett par deux point essentiels : on applique une fenêtre non rectangulaire
(fenêtre de Hanning en général) aux données pour diminuer l’effet des lobes dans l’estimation
des points spectraux. On utilise également des segments partiellement superposés. Pour chaque
segment on définit le découpage de la façon suivante :
Rejet et Classification 81
xi ( n) = x (n + i .D ) n = 0,1,..., M −1
i = 0,1,..., L - 1
où M est la taille des segments après découpage, D est le décalage d’un segment à l’autre et L est
le nombre de segments obtenus. Dans le cas d’un recouvrement de 50%, on a D=M/2 et on a
alors L=2K segments. Le périodogramme modifié de chaque segment i est estimé par :
2
^i M −1
1
S (f)=
MU ∑ x (n).w(n).e
n =0
i
− j 2 πfn
∑ w (n ) .
1
U=
2
M n =0
On se place ici dans le cas de signaux modélisés par un modèle paramétrique de type ARMA ou
AR. Les estimateurs spectraux paramétriques sont caractérisés par le fait qu’ils sont des
estimateurs de résolution infinie. Ces estimateurs sont efficaces à condition que le modèle choisi
soit très proche du signal réel, ce qui est très difficile à démontrer en pratique.
Dans le cas d’un signal modélisé par un modèle ARMA(p,q) d’équation de récurrence :
p q
xn = −∑ a k . xn− k + ∑ b k .xn− k + ε n (4.3)
k =1 k =0
σ 2ε
S AR ( f ) = 2
(4.5)
p
− j 2 πfk
1 + ∑ ak .e
k =1
Dans le cas réel on doit estimer les paramètres de ces modèles à partir des données réelles, donc
utiliser l’une des méthodes déjà discutées pour l’estimation d’un modèle ARMA ou AR. Comme
il a été déjà montré qu’un modèle ARMA était rarement utilisé pour modéliser un processus à
cause des difficultés liées à l’identification d’un tel modèle [Mar87], [Kay88], nous limiterons la
discussion à l’estimation du spectre par les méthodes paramétriques AR. Dans le cas d’un
modèle AR estimé, l’expression du spectre devient alors :
^2
^ σε
S AR ( f ) = 2
(4.6)
p ^
1 + ∑ a k .e − j2πfk
k =1
Les paramètres du modèle sont estimés par l’une des méthodes d’estimation déjà citée dans le
chapitre 3. Dans la littérature les avantages et les inconvénients de chaque méthode vis à vis
d’une estimation spectrale ont été largement décrits [Mar87], [Kay88], [Pro96]. Ce paragraphe
n’en fera donc qu’un bref résumé. Il est démontré que, de toutes les méthodes, la méthode
d’autocorrélation donne le spectre le moins bon (on peut voir par exemple l’étude de simulation
faite par Kay [Kay88]). Ceci est dû à l’introduction de zéros dans la série de données, ce qui
induit une mauvaise estimation des paramètres AR. La méthode de Burg est meilleure dans la
mesure où elle a une résolution infinie et produit un modèle AR stable [Mar87] [Pro96].
Cependant un inconvénient de la méthode est qu’elle fait apparaître des pics supplémentaires
lorsque l’ordre du modèle est élevé [Mar87], [Kay88]. De plus elle peut aboutir à un décalage de
fréquence dans certains cas [Mar87], [Kay88]. Les méthodes de Covariance et de Covariance
modifiée sont également meilleures que celle d’auto-corrélation et résolvent le problème de
décalage de fréquence [Mar87], [Kay88].
Le point le plus important dans le cas d’estimation paramétrique reste la recherche de l’ordre du
modèle utilisé (voir chapitre précédent). Cependant, dans l’approche de détection, nous n’étions
pas tenus de choisir l’ordre du modèle le plus proche de la réalité mais seulement un ordre qui
reflétait le changement. Dans le cas d’estimation spectrale le problème se pose différemment car
dans ce cas un ordre très faible fournit un spectre trop lissé, alors qu’un ordre très élevé produit
des pics erronés. [Mar87], [Kay88].
Rejet et Classification 83
La méthode MUSIC n’est pas à proprement parler un estimateur spectral mais on peut la
qualifier d’estimateur pseudo- spectral. Elle est attractive pour notre problème dans la mesure où
elle permet une estimation dans le cas d’un rapport signal sur bruit défavorable.
Cette méthode repose sur la décomposition de la matrice d’autocorrélation en deux sous espaces,
espace du signal et espace du bruit [Mar87], [Kay88], [Orf90].
Elle permet d’extraire des pics de fréquence, donc des sinusoïdes, noyées dans un bruit blanc
additif [Mar87], [Geo00]. Elle nous a donc paru un moyen adapté de distinguer entre des
segments de signaux EMG bruités mais utilisables, et des segments ne contenant pas d’activité
EMG. Par contre il est clair que cette méthode ne permettra pas ensuite une bonne estimation des
paramètres spectraux pour l’étude de la fatigue musculaire.
La méthode MUSIC a été utilisée dans différents domaines, par exemple dans la localisation de
sources [Red79], la résolution d’échos [Bru85], ou encore dans le traiteme nt de signaux
biomédicaux [Aka96].
Le principe de la méthode MUSIC repose sur la décomposition de la matrice d’auto-corrélation
en valeurs propres, les unes correspondant au signal et les autres au bruit. Supposons qu’un
enregistrement contienne P sinusoïdes complexes noyées dans un bruit blanc additif de moyenne
nulle et de variance σ 02 non corrélé avec le signal.
Les (N-P) vecteurs propres restants sont orthogonaux aux composantes xi et ont des valeurs
propres égale à σ 02 .
84 Rejet et Classification
Donc les (N-P) vecteurs propres qui correspondent aux valeurs propres de valeur σ 02
correspondent à ce qu’on appelle «l’espace du bruit », orthogonal à l’espace formé par les
composantes xi qui correspondent à ce qu’on appelle « l’espace du signal ».
Reposant sur ce principe, plusieurs méthodes ont été développées pour estimer le pseudo spectre
d’un tel signal. Parmi ces méthodes on peut citer la méthode de Pisarenko [Mar87] qui estime le
pseudo-spectre d’un signal formé de P sinusoïdes dans un échantillon de données de longueur
(P+1).
La méthode MUSIC est une généralisation de la méthode de Pisarenko [Mar87], [Kay88],
[Aka96], [The99]. L’algorithme est le suivant :
1- Calculer une estimation de la matrice d’auto-corrélation par :
^ ^ ^
y
R ( 0 ) R y ( 1) ... R y (N)
^ ^ ^
Ry (1) Ry ( 0) ... Ry ( N −1)
^
Ry = . . (4.12)
. .
. .
^ ^ ^
R ( N ) R ( N − 1) ... R (0)
y y y
avec :
^ 1 N −1− k
Ry (k ) = ∑ y ( n + k ). y ( n) (4.9)
N − k n= 0
2- Calculer les valeurs propres et les vecteurs propres correspondants de la matrice d’auto-
^
corrélation Ry .
3- Calculer la dimension K de l’espace du bruit, égale au nombre des faibles valeurs des valeurs
propres, par un critère d’Akaike ou MDL (Minimum Description Length) [Aka96], [The99].
On en déduit la dimension de l’espace du signal égale à (N+1-K).
4- Calculer le pseudo- spectre MUSIC par :
^ 1
S( f ) = (4.10)
1 K −1 2
∑ Ei ( w )
k i =1
les Ei (w) étant les vecteurs propres de l’espace du bruit.
Le pseudo-spectre MUSIC ne peut pas être utilisé pour l’estimation des paramètres (moyenne,
médiane….) du spectre EMG usuellement analysés dans le cadre de la détection et de l’évolution
Rejet et Classification 85
de la fatigue musculaire. Notre utilisation de MUSIC se limite donc à la procédure de rejet des
segments bruités. En effet cette méthode permet d’identifier les pics principaux de fréquences
dans le spectre EMG en éliminant la partie correspondant au bruit blanc. Elle devrait donc
permettre d’améliorer la procédure de rejet en présence de bruit (voir paragraphe 4.4.2).
L’estimation de la densité spectrale de puissance d’un signal EMG est très importante car c’est à
partir de cette densité que nous allons d’une part rejeter les segments contenant trop peu d’EMG,
d’autre part calculer les paramètres qui reflètent la fatigue musculaire, ces deux objectifs ne
menant pas nécessairement à la même méthode d’estimation optimale.
L’estimation du spectre EMG par la méthode de Welsh est la plus utilisée en pratique. Plus de
90% des auteurs utilisent cette méthode pour estimer le spectre EMG [Duc93].
L’estimation du spectre EMG par des méthodes paramétriques, surtout par modèle AR, est
parfois utilisée également pour estimer un spectre EMG [Duc93][Mer99a][Mer99b]. Cependant
le problème reste le choix de l’ordre du modèle, certains auteurs utilisant un modèle d’ordre 20
[Inb84], d’autres 15 [Sei87]. Dans les conditions expérimentales qui ont été les nôtres, le rapport
signal sur bruit s’est révélé très défavorable. De ce fait l’utilisation d’un modèle AR pour
calculer le spectre EMG conduit à une mauvaise estimation spectrale. Il est en effet bien connu
qu’un estimateur de type AR est très sensible au bruit [Kay88], ce qui a pour effet de diminuer la
résolution spectrale. Dans ce cas on préfère utiliser le périodogramme qui produit une estimation
beaucoup plus robuste que le modèle AR lorsque le niveau de bruit est important
[Kun91][Kay88].
Une comparaison entre l’estimation spectrale par le périodogramme moyenné et la modélisation
AR pour des applications EMG est faite dans [Mer99b]. Bien qu’il existe des différences dans
l’estimation entre les deux méthodes, pour les calculs des paramètres globaux (médiane,
moyenne …) les deux méthodes donnent des résultats similaires, et les valeurs de ces paramètres
globaux varient très peu avec l’ordre du modèle [Kor99]. La méthode paramétrique est préférée
pour les petit segments (<0.25 s).
Le choix entre modèle AR et périodogramme de Welsh pour l’estimation du spectre EMG dans
notre cas doit tenir compte d’un rapport signal sur bruit faible (activités toniques), et de la
possibilité d’estimer ce bruit pour l’éliminer ensuite. Enfin il paraît peu justifié d’utiliser une
première méthode d’estimation pour la procédure de rejet, et une deuxième pour l’estimation des
86 Rejet et Classification
paramètres spectraux des segments conservés. Au vu de ces contraintes nous avons préféré
choisir le périodogramme de Welsh pour l’estimation du spectre SEMG dans la suite de l’étude.
4-3-1 Introduction
Dans le cas des signaux EMG posturaux, on rencontre souvent deux types de spectres, un spectre
EMG normal (Figure 4.1) et un spectre EMG fortement bruité (Figure 4.2).
FIG. 4.1 – Illustration d’un segment d’EMG peu bruité. Tracé supérieur : segment d’EMG. Axe
des abscisses en nombre de points. Tracé inférieur : spectre associé. Axe des abscisses en Hz.
Axes des ordonnées en unités arbitraires.
FIG. 4.2 – Illustration d’un segment d’EMG contaminé par du bruit blanc additif. Tracé
supérieur : segment d’EMG. Axe des abscisses en nombre de points. Tracé inférieur : spectre
associé. Axe des abscisses en Hz. Axes des ordonnées en unités arbitraires.
Rejet et Classification 87
Avant de faire le calcul des paramètres sur le spectre EMG, il est donc nécessaire de trouver une
méthode d’élimination du bruit pour obtenir ensuite une bonne estimation de ces paramètres.
Dans ce problème de dé-bruitage on suppose que le bruit est un bruit additif blanc, soit
y (n ) = EMG ( n) + b (n ) avec y(n) le signal observé, EMG(n) le signal EMG utile et b(n) un bruit
blanc additif. Cette hypothèse se justifie par l’observation des signaux réels. En effet, dans la
plupart des cas on observe des spectres du type de celui présenté sur la figure 4.2, où un niveau
d’énergie résiduelle reste présent à des fréquences pour lesquelles l’énergie de l’EMG est
pratiquement nulle (figure 4.1).
La méthode la plus intuitive consiste à effectuer une soustraction spectrale de façon à diminuer
l’influence du bruit dans le calcul des paramètres spectraux. On considère que le bruit est blanc
additif non corrélé avec le signal. Le problème reste l’estimation de ce bruit. Dans le traitement
de la parole, le bruit est estimé soit durant les périodes de silence, soit à l’aide d’un second
microphone [Boi00]. Ici nous ne disposons pas de tels enregistrements, et l’estimation du bruit
ne peut se faire qu’à partir du signal observé :
y (n ) = EMG ( n) + b (n ) (4.11)
avec :
- EMG(n) signal EMG
- b(n) bruit blanc additif
On retrouve bien évidemment les propriétés additives dans le domaine de Fourier, ainsi sur le
DSP lorsque signal et bruit ne sont pas corrélés :
S y ( f ) = S EMG ( f ) + B( f ) (4.12)
Cependant, dans la chaîne d’acquisition utilisée lors des expérimentations, un filtrage passe haut
à 20 Hz était appliqué (Butterworth d’ordre 2). Au lieu d’abaisser le spectre sur toute la gamme
de fréquences (de 0 à 420 Hz) nous avons utilisé le module de la fonction de transfert de ce filtre
^
comme estimation du bruit B( f ) , l’amplitude en bande passante étant définie comme
précédemment.
(a) (b)
FIG. 4.3 – (a) Spectre bruité et estimation du bruit par filtre de Butterworth. (b) Spectre après
réduction de la valeur du bruit et interpolation de la valeur du spectre autour de
50 Hz. Axes des abscisses en Hz, axes des ordonnées en unité arbitraire.
L’idée est de supposer que le signal est modélisé par un modèle AR noyé dans un bruit blanc
additif.
On a toujours :
Rejet et Classification 89
y (n ) = x (n ) + b( n) (4.14)
x(n) étant un processus AR d’ordre p de paramètres ( a1, a2 ,..., a p ,σ ε2 ) et b(n) un bruit blanc
Plusieurs méthodes ont été développées dans la littérature pour estimer la partie AR, éliminer le
bruit, et obtenir un modèle spectral du signal sans bruit.
Une des premières méthodes développées utilise un modèle ARMA, puisqu’un modèle AR
d’ordre p noyé dans un bruit blanc est équivalent à un modèle ARMA(p,p) [Kay88]. On applique
alors une des méthodes d’estimation ARMA [Mar87], puis on peut estimer la variance du bruit.
Cette approche a été appliquée par Tong [Ton75].
La deuxième approche est d’utiliser la technique du filtrage de Wiener adaptatif. On peut alors
utiliser des techniques de type LMS où RLS [Lim78], [Lim79], [Kay88], [Orf90]. D’autres
approches sont également parfois rencontrées comme la méthode récursive développée par
Jitendra utilisant un modèle d’état [Jit86].
Ce type d’élimination de bruit, considérant que le signal est un processus autorégressif noyé dans
un bruit blanc, est appliqué en traitement de la parole [Lim78], [Lim79], [Boi00].
Pour l’appliquer sur un signal EMG, le problème essentiel reste la détermination de l’ordre du
modèle AR qui représente au mieux le signal. Or dans ce cas les critères de sélection d’ordre
classique ne peuvent pas s’appliquer car ils sont construits pour des signaux AR sans bruit
[Tonj75], [Ton76]. Pour cette raison nous avions préféré utiliser la méthode d’estimation
moyenne du bruit décrite dans le paragraphe précédent.
4-3-4 Conclusion
Une première modélisation spectrale reposant sur l’estimation par le périodogramme moyenné a
été retenue pour sa capacité à produire une estimation spectrale dont il est possible de réduire
l’influence d’un bruit blanc additif, et à partir de laquelle les principaux paramètres spectraux
pourront être extraits. C’est donc cette représentation qui sera utilisée ensuite afin d’effectuer
d’abord un rejet des segments ne contenant pas d’EMG, ensuite une extraction de paramètres
significatifs.
90 Rejet et Classification
On sait que le spectre EMG recueilli par électrodes de surface présente toujours une allure
similaire dissymétrique (voir figure 4.4). Ses caractéristiques dépendent évidemment de l’ EMG
lui même, mais également de facteurs méthodologiques comme le type d’électrodes, l’intervalle
inter-électrodes, etc. Ce spectre peut être modifié également en fonction d’autres événements
présents dans ’lenregistrement, que ce soit du bruit blanc superposé (voir figure 4.5) ou des
événements externes (voir figure 4.6) (par exemple décollement d’électrodes, bruits superposés
provenant de la plate forme expérimentale etc. ).
FIG. 4.4 – Illustration d’un segment d’EMG « standard ». Tracé supérieur : segment d’EMG.
Axe des abscisses en nombre de points. Tracé inférieur : spectre associé. Axe des abscisses en
Hz. Axes des ordonnées en unités arbitraires.
Rejet et Classification 91
FIG. 4.5 – Illustration d’un segment d’EMG contaminé uniquement par du bruit blanc additif.
Tracé supérieur : segment d’EMG. Axe des abscisses en nombre de points. Tracé inférieur :
spectre associé. Axe des abscisses en Hz. Axes des ordonnées en unités arbitraires.
FIG. 4.6 – Illustration d’un segment d’EMG contaminé par du bruit blanc additif et des artefacts
externes. Tracé supérieur : segment d’EMG. Axe des abscisses en nombre de points. Tracé
inférieur : spectre associé. Axe des abscisses en Hz. Axes des ordonnées en unités arbitraires.
Les quelques exemples des figures 4.4 à 4.6 montrent à l’évidence que, si les spectres
contaminés uniquement par du bruit blanc additionnel peuvent être exploités après correction
(par une procédure d’élimination), il n’en est pas de même pour ceux qui sont également
contaminés par d’autres artefacts. Ces segments, contaminés par des artefacts de natures
diverses, dont le spectre est de ce fait impossible à modéliser, doivent donc être éliminés, Le
paragraphe suivant décrit le procédure de rejet relative à ces segments.
92 Rejet et Classification
Dans la littérature il existe beaucoup de définitions de distances spectrales (voir par exemple
[Bas89], [Boi00]). Parmi ces distances, on trouve d’une part les distances calculées sur les
spectres eux mêmes, d’autre part les distances fondées sur une modélisation paramétrique du
spectre. Ces distances trouvent encore une fois un champ d’application privilégié en traitement
de la parole [Boi00].
L’algorithme développé ici pour rejeter les segments non conformes part du principe que
l’essentiel de l’énergie du spectre d’un EMG est concentré dans une bande de fréquence
inférieure à 200 Hz. L’idée est alors de mesurer la distance entre le spectre complet et le spectre
réduit à une bande basse fréquence.
Les spectres sont estimés par la méthode de Welsh, et la distance calculée n’est rien d’autre que
la distance euclidienne entre les déciles du spectre complet et ceux du spectre réduit à une bande
basse fréquence qui, compte tenu de notre connaissance des spectres de l’EMG de surface, a été
prise dans l’intervalle [0, 180Hz]. La justification de ce choix est que les déciles caractérisent
bien un spectre EMG, tout en étant peu sensibles au bruit, et qu’ils ne nécessitent le calcul
d’aucun modèle paramétrique, ni l’application d’aucune normalisation.
FIG.4.7 – Projection simultanée des spectres complets (o) et des spectres tronqués (+) sur le
premier plan d’ACP.
Cette méthode a donné des résultats satisfaisants tout en faisant apparaître deux limitations :
- La méthode élimine les segments de type EMG avec bruit blanc (la distance entre déciles est
grande) ce qui élimine un certain nombre de segments qui auraient pu être utilisés dans la
phase d’extraction de paramètres après élimination du bruit.
- La définition manuelle du seuil de rejet n’est pas une solution satisfaisante en soi.
Pour résoudre ce problème, l’idée a été d’appliquer la méthode de rejet non pas sur le spectre
estimé par le périodogramme de Welsh, mais sur le pseudo spectre MUSIC. Comme cela a été
décrit précédemment, cette méthode permet d’estimer les pics de fréquence dans le spectre tout
en éliminant le bruit blanc. On applique alors la procédure de rejet sur le pseudo- spectre, ce qui
a pour effet en principe d’éliminer seulement les segments de type EMG fortement bruités par
des événements externes. Les essais réalisés ont bien montré que l’utilisation de MUSIC
améliorait le procédure de rejet dans le sens qu’elle rejetait moins de segments avec bruit blanc.
94 Rejet et Classification
Par contre dans certains cas nous avons observé également une modélisation erronée de la partie
haute fréquence pour des segments normalement à rejeter (voir figure 4.8). De ce fait ces signaux
sont conservés, dégradant ainsi la performance de la classification. Une telle méthode n’est donc
intéressante que lorsque le signal à rejeter contient des pics fréquentiels significatifs dans une
bande de fréquence où le signal est normalement de faible énergie.
FIG. 4.8 – Tracé supérieur : exemple d’un segment fortement bruité. Axe des abscisses en
nombre des points. Tracé intermédiaire : spectre estimé par périodogramme de Welsh. Axe des
abscisses en Hz. Tracé inférieur : pseudo-spectre estimée par MUSIC. Axe des abscisses en Hz.
Les axe des ordonnées sont donnés en unités arbitraires.
Le plus souvent c’est un noyau gaussien qui est utilisé [Van00]. Pour ce qui concerne le choix de
h, théoriquement il fa ut choisir h proportionnel à n −1/ 5 [Sap90], [Van00]. Cependant, en pratique
la valeur de h doit être déterminée empiriquement. Dans [Van00], une étude de simulation pour
Rejet et Classification 95
l’estimation d’une densité gaussienne par la méthode du noyau montre que la densité estimée se
rapproche de la densité théorique pour une valeur de h proche de 5, ce qui nous a conduit à
adopter cette valeur dans notre étude.
Selon la qualité des signaux enregistrés (contamination ou non des enregistrements par des bruits
non modélisables et intervenant à des instant aléatoires), deux formes de densités de probabilités
peuvent être rencontrées, l’une unimodale (figure 4.9 a), l’autre bimodale (figure 4.9 b).
(a) (b)
FIG. 4.9 – Densités de probabilité estimées par la méthode du noyau.(a) Distribution unimodale.
(b) Distribution bimodale. Axes des abscisses : distance entre spectres – Axes des ordonnées :
estimation de la densité de probabilité.
Si cette méthode est séduisante, il faut cependant souligner que son application présente deux
inconvénients : d’une part, dans le cas où la présence de deux (ou plusieurs) classes n’est pas
claire, le rejet élimine certains segments expertisés corrects. D’autre part, si le nombre des
segments est faible, l’estimation de la densité de probabilité est incorrecte.
96 Rejet et Classification
4-4-3-1 Introduction
Dans les méthodes précédentes, la connaissance du signal n’était exploitée que de façon partielle,
au moyen de la bande de fréquence principale [0-180 Hz] ou en faisant l’hypothèse d’un
processus AR.
Dans ce paragraphe, l’idée est de modéliser par une fonction analytique la totalité du spectre de
l’EMG à partir de la connaissance que nous avons de sa forme générale.
Le modèle mathématique est calculé en utilisant des techniques de régression. En se fondant
alors sur l’erreur quadratique moyenne entre spectres réels et modèles mathématiques, on peut
ensuite, en utilisant une courbe COR, calculer un seuil sur cette erreur et l’utiliser pour le rejet
automatique des segments fortement bruités, pour lesquels l’ajustement à une forme spectrale
spécifique ne sera pas correct.
a) Modèle de Shwedyck
Un modèle analytique de la densité spectrale de puissance d’une signal SEMG a été proposé par
Shwedyck [Shw75] et repris par Merletti [Mer99a]. Il s’exprime sous la forme suivante :
k . f h2 . f 2
S( f ) = (4.18)
( f 2 + f l 2 ).( f 2 + f h2 ) 2
b) Modèle exponentiel
Au vu de la forme du spectre SEMG, nous avons proposé comme modèle la forme analytique
suivante :
S ( f ) = β . f γ .e −αf (4.19)
γ
Ce modèle présente un maximum à f max = . La valeur de ce maximum est :
α
Smax = β .( f max ) .e −γ
γ
(4.20)
On calcule tout d’abord le spectre de chaque segment d’une façon lissée (en ne calculant que
N=128 points spectraux quelle que soit la taille du segment dont on calcule le spectre) pour
réduire autant que possible la variance du spectre même dans le cas de segments de taille réduite
(au sens de l’application, voir chapitre 5). Les spectres sont normalisés en divisant la densité
spectrale par l’énergie totale du spectre.
98 Rejet et Classification
Le calcul des paramètres a été fait ici par le même algorithme de régression non linéaire pour les
deux modèles (voir Annexe D). Cette méthode étant itérative, la vitesse de convergence (voire la
convergence elle- même) dépend du choix du vecteur de paramètres initial. Ici on peut par
exemple contraindre le modèle initial à passer par le maximum du vrai spectre. Soit (f max , Smax)
ce maximum. Pour le modèle exponentiel, les expressions reliant les paramètres du modèle au
maximum sont très simples si on fait une hypothèse sur la valeur de γ (γ=2). Dans ce cas on peut
2 Smax
voir que α = et β = , et on peut donc partir de ces points pour estimer les
f max ( f max ) 2.e −2
paramètres du modèle.
Par contre pour le modèle de Shwedyck il est difficile de fixer le vecteur initial des paramètres
en partant de cette hypothèse, car le calcul de maximum pour cette expression conduit à des
relations complexes entre les paramètres du modèle et (f max, Smax).
Les figures 4-12 et 4-13 fournissent une illustration des résultats obtenus pour le modèle de
Shwedyck et le modèle exponentiel, respectivement.
FIG. 4.12 – Un exemple de spectre EMG et son modèle de Shwedyck calculé par régression non
linéaire. Axe des abscisses en Hz. Axe des ordonnées en unité normalisée par rapport au
maximum du spectre réel.
Rejet et Classification 99
FIG. 4.13 – Spectre EMG et son modèle exponentiel calculée par régression non linéaire. Axe
des abscisses en Hz. Axe des ordonnées en unité normalisée par rapport au maximum du spectre
réel.
Les figures 4.14 (a) et (b) montrent le comportement des modèles lorsque le spectre de l’EMG
est fortement contaminé par des artefacts externes. On comprend ainsi l’utilisation potentielle de
ces modèles dans le cadre du rejet de segments fortement bruités.
FIG. 4.14 – (a) Spectre fortement bruité et son modèle de Shwedyck. (b) Le même spectre et son
modèle exponentiel. Axes des abscisses en Hz. Axes des ordonnées en unité normalisée par
rapport au maximum du spectre réel.
100 Rejet et Classification
Les méthodes décrites précédemment ont été comparées à partir d’une base d’exemples extraits
des signaux réels. Pour cela, 50 segments qualifiés comme segments EMG par des experts et 50
segments fortement bruités ont été sélectionnés à partir d’enregistrements réels. Pour chaque
segment on calcule les paramètres des modèles qui s’ajustent le mieux au spectre réel estimé par
la méthode de Welsh. Puis lissé par moyenne mobile afin d’obtenir pour tous la même résolution
spectrale. Ensuite on calcule pour chacun d’eux l’erreur quadratique moyenne entre spectre réel
et spectre modèle.
Les résultats sont présentés sous forme de courbes COR pour les trois modélisations retenues
(méthode des déciles, modèle de Shwedyck, modèle exponentiel).
FIG. 4.15 – Courbe COR calculée à partir des distances entre spectres complets et tronqués, en
utilisant la modélisation par déciles. Axe des abscisses : probabilité de fausse alarme. Axe des
ordonnées : probabilité de détection. Les valeurs des seuils sont représentées sur quelques
points.
Rejet et Classification 101
FIG. 4.16 – Courbe COR calculée à partir du modèle de Shwedyck et de l’erreur quadratique
moyenne. Axe des abscisses : probabilité de fausse alarme. Axe des ordonnées : probabilité de
détection. Les valeurs des seuils sont représentées sur quelques points.
FIG. 4.17 – Courbe COR calculée à partir du modèle exponentiel et de l’erreur quadratique
moyenne. Axe des abscisses : probabilité de fausse alarme. Axe des ordonnées : probabilité de
détection. Les valeurs des seuils sont représentées sur quelques points.
102 Rejet et Classification
On voit sur les figures 4.15, 4.16 et 4.17 que le modèle exponentiel permet de mieux distinguer
entre segments EMG et segments fortement bruités. Le seuil le plus approprié sur l’erreur
quadratique moyenne est alors de 0.0134.
Pour la classification entre segments phasique et segments toniques, nous avons utilisé une
démarche heuristique tenant compte des caractéristiques spécifiques de l’expérimentation. En
fait deux critères contrôlent la classification d’un segment comme phasique ou non :
- la durée du segment,
- le rapport de puissance moyenne entre ce segment et ses voisins.
Pour ce qui concerne la durée, il paraît très difficile pour un sujet d’avoir une activité phasique
de plus de 10 s. Cette activité correspondrait à une contraction volontaire longue, contraire aux
instructions d’inactivité données au sujet en début d’expérience.
FIG. 4.18– Courbe COR pour la classification des segments phasiques et toniques. Axe des
abscisses : probabilité de fausse alarme. Axe des ordonnées : probabilité de détection. Les
valeurs des seuils sont représentées sur quelques points
4-6 Conclusion
Dans ce chapitre nous avons traité du problème général d’estimation du spectre EMG. Nous
avons vu qu’il était préférable d’utiliser l’estimation du spectre par périodogramme moyenné,
car, dans le cas de signaux EMG ayant un rapport signal sur bruit défavorable, les méthodes
paramétriques AR sont moins performantes. Ensuite nous avons présenté, sous certaines
conditions, une méthode d’élimination du bruit, afin de mieux estimer les paramètres spectraux
des signaux EMG. Plusieurs méthodes de rejet ont été également présentées et discutées. Une
comparaison par courbe COR a montré que la méthode de rejet fondée sur un modèle
exponentiel du spectre EMG était la plus performante. A la fin de chapitre, nous avons présenté
104 Rejet et Classification
un algorithme simple de classification entre segments phasiques et toniques fondé sur des
critères de rapport de puissance et de durée maximale de segments phasiques.
Dans le chapitre suivant, nous allons aborder les résultats obtenus sur les signaux EMG réels
issus des expérimentations décrites au chapitre 1 lorsqu’on leur applique la séquence des
traitements définie dans les chapitres 2 et 3. Nous apporterons également une justification a
posteriori concernant certains des cho ix effectués précédemment, en particulier pour ce qui
concerne le double seuil pour la détection.
Application - Adaptation aux signaux réels 105
Chapitre 5
Application-Adaptation aux signaux
réels
5-1 Introduction
Ce chapitre est consacré à la présentation des résultats après avoir appliqué les algorithmes
développés dans les chapitres précédents sur les signaux réels enregistrés selon le protocole
décrit au chapitre 1. Dans la première partie, nous calculerons les seuils relatifs à la segmentation
pour les différents sujets. Quelques illustrations de segmentation seront présentées à partir de
signaux contenant des changements spectraux et/ou d’énergie.
L’algorithme de rejet et de classification sera appliqué ensuite pour réduire la variance de la
médiane du spectre EMG (paramètre utilisé pour l’ana lyse de la fatigue). L’évolution de la
médiane en fonction du temps sera présentée à la fin de ce chapitre. Une discussion sur les
résultats obtenus sera enfin proposée.
L’algorithme de segmentation a été appliqué sur tous les signaux EMG. Comme cela a été déjà
mentionné dans le chapitre 3, cet algorithme comprend plusieurs étapes :
1- fixer la taille du segment minimal à détecter. Cette taille a été fixée à 200 points (ou
0.238 s). Bien que, dans certains cas, nous ayons observé l’existence de quelques
activités phasiques plus courtes, prendre une valeur trop faible pour N conduit à dégrader
les performances au niveau de l’estimation des paramètres autorégressifs. Ce choix de la
valeur de N (égale à 200) avait déjà été étudié dans des travaux de recherche antérieurs
[Kha99a].
2- Appliquer la procédure de calcul des seuils décrite au paragraphe 3-3-4, en prenant un
ordre de processus autorégressif égal à 20.
106 Application - Adaptation aux signaux réels
La figure 5.1 (b) montre l’ information de Kullback- Leibler calculée à partir d’un segment de
durée de 926 s présenté sur la figure 5.1 (a). La figure 5.1 (c) présente l’information de
Kullback-Leibler triée en ordre croissant.
Si le seuil choisi correspond à une valeur trop faible de l’information de Kullback-Leibler, alors
le nombre des segments détectés sera trop élevé. Par contre si le seuil choisi est grand alors on
risque d’augmenter la probabilité de non détection.
Compte tenu des caractéristiques du signal EMG et de la taille des fenêtres utilisées pour ce
calcul, on remarque que le nombre de changements présents dans le signal reste toujours bien
inférieur à 15% du nombre total des valeurs calculées de l’information de Kullback-Leibler.
C’est pour cette raison que nous avions choisi au chapitre 3 un seuil de segmentation
correspondant à 85% des valeurs triées de l’information de Kullback-Leibler. Ce choix est
illustré sur la figure 5.1 (c).
(a)
(b)
Application - Adaptation aux signaux réels 107
(c)
FIG. 5.1 – (a) Segment EMG. (b) Répartition de l’information de Kullback-Leibler en fonction
du temps.(c) Information de Kullback-Leibler triée. Axe des abscisses pour (b) et (c) : nombre de
fenêtres. Axes des ordonnées en unité arbitraire.
Afin de justifier (et éventuellement de moduler) ce choix du seuil à 85% des valeurs de
Kullback-Leibler triées, nous avons étudié l’évolution du nombre des changements détectés en
fonction de la valeur du seuil. Les quatre graphiques de la figure 5.2 illustrent cette évolution du
nombre de segments détectés pour des valeurs des seuils variant autour de 85%. Il est normal que
le nombre de changement diminue quand le seuil augmente, mais le nombre de changement est
stable autour d’un seuil compris entre 80% et 85% des valeurs de l’ information de Kullback-
Leibler triées.
108 Application - Adaptation aux signaux réels
FIG. 5.2 – Evolution du nombre des segments détectés en fonction de la position du seuil déduit
de l’information de Kullback-Leibler pour 4 exemples différents des signaux EMG. Axes des
abscisses : valeurs du seuil (en pourcentage). Axes des ordonnées : nombre de segments
détectés.
KH et KL sont les seuils haut et bas utilisés pour la détection et l’arrêt de l’estimation des
paramètres, respectivement. Au chapitre 3, nous avons montré que la valeur optimale de KL
devait être égale à 1. La valeur de KH, déduite des signaux simulés, était égale à 3. Pour justifier
ce choix a posteriori, nous avons étudié les variations du nombre de segments détectés en
fonction d’une variation des valeurs de KL et KH. Ces deux seuils KH et KL jouent en effet un
rôle important dans la qualité de la détection. La figure 5.3 illustre cette variation du nombre de
segments détectés quand KH augmente pour 3 segments EMG différents (KL = 1). Nous
remarquons que KH = 3 correspond à la première valeur pour laquelle le nombre de segments
détectés se stabilise. La figure 5.4 présente la variation du nombre des segments détectés quand
Application - Adaptation aux signaux réels 109
FIG. 5.3 – Evolution du nombre de segments détectés sur 3 signaux EMG différents, en fonction
de la valeur de KH (K L=1)
FIG 5.4 – Evolution du nombre de segments détectés sur les 3 signaux utilisés sur la figure 5.3
en fonction de KL (pour KH=3).
5-2-1-4 Influence des sujets et des conditions expérimentales sur les valeurs de seuils
Le choix des différents seuils peut à l'évidence être influencé par les conditions expérimentales :
sujet, type de siège, présence ou non de vibrations. L'étude de ces influences a été faite ici sur les
signaux issus du muscle (CES gauche) pour lequel le rapport signal sur bruit était le moins
défavorable, afin de s'affranchir autant que possible du facteur bruit pour l'analyse.
Les tableaux suivants présentent les seuils trouvés sur les sujets ayant des durées suffisantes
d'enregistrements exploitables : FR, FL, MM, PP, JMB, YL.
L'étude a été réalisée pour quatre conditions :
− sans vibrations, siège : L
− sans vibrations, siège : T
− avec vibrations, siège : L
110 Application - Adaptation aux signaux réels
Les Pi correspondent aux périodes successives des enregistrements (la durée d’expérimentation
était divisée en 7 périodes séparées entre elles par une phase de tests réflexes, cognitifs et
sensoriels) :
− P1 : 0… 20 min
− P2 : 25... 35 min
− P3 : 40… 65 min
− P4 : 70… 85 min
− P5 : 90… 120 min
− P6 : 125... 135 min
− P7 : 140… 160 min
Les résultats du calcul de seuil sont donnés dans les tableaux 5.1 à 5.4. Les valeurs des tableaux
correspondent au calcul du seuil haut d’un sujet donné pour une période donnée.
TAB 5.1 – Seuils trouvés pour les sujets retenus pour l'étude à chaque période de
l'enregistrement. Conditions du calcul : expérimentation sans vibration, siège L.
Application - Adaptation aux signaux réels 111
TAB 5.2 – Seuils trouvés pour les sujets retenus pour l'étude à chaque période de
l'enregistrement. Conditions du calcul : expérimentation sans vibration, siège T.
TAB 5.3 – Seuils trouvés pour les sujets retenus pour l'étude à chaque période de
l'enregistrement. Conditions du calcul : expérimentation avec vibration, siège L.
112 Application - Adaptation aux signaux réels
TAB 5.4 – Seuils trouvés pour les sujets retenus pour l'étude à chaque période de
l'enregistrement. Conditions du calcul : expérimentation avec vibration, siège T.
Ces résultats montrent tout d'abord une bonne homogénéité dans les seuils calculés par cette
procédure. Ceci signifie que tous les signaux EMG de tous les sujets ont, de ce point de vue, des
caractéristiques similaires, ce qui tendrait à montrer qu'il n'est pas nécessaire de calculer autant
de seuils que de sujets.
On remarque par contre une différence dans les valeurs des seuils selon la présence ou non de
vibration. Ceci est justifié en faisant une étude ANOVA sur les données suivant, qu’il y a
vibration ou non. Cette étude donne les résultas présentés dans le tableau 5-5.
TAB 5.5 – Résultats de l’analyse de variance sur le seuil en fonction de la présence ou non de
vibrations.
Il est clair que l’hypothèse selon laquelle il y a une différence dans les valeurs des seuils selon la
présence ou non de vibration peut être retenue.
En pratique, on utilisera comme seuil la valeur moyenne des seuils des tableaux correspondants
(79 en l’absence de vibrations, 92 en présence de vibrations ).
Application - Adaptation aux signaux réels 113
Donc :
− Seuil haut = 79 pas de vibration
− Seuil haut = 92 avec vibration
− Seuil bas = 26 pas de vibration
− Seuil bas = 30 avec vibration
Enfin nous remarquons une différence des valeurs des seuils pour certaine périodes
d’expérimentation et pour un même sujet (* dans le tableau). L'observation des segments
correspondants montre que ces valeurs correspondent en fait à des segments fortement bruités.
La figure 5.5 montre quelques exemples de segmentation sur un signal EMG, pour trois périodes
d’expérimentation différentes.
FIG. 5.5 – Trois exemples de segmentation sur des signaux EMG. Axes des abscisses en
secondes, axes des ordonnées en unité arbitraire.
114 Application - Adaptation aux signaux réels
FIG. 5.6 – Agrandissement sur des zones spécifiques. Axes des abscisses en secondes, axes des
ordonnées en unité arbitraire.
La figure 5.7 montre 2 segments successifs de même variance détectés par l'algorithme. On voit
bien que la segmentation est cette fois justifiée par un changement du contenu fréquentiel.
Application - Adaptation aux signaux réels 115
FIG. 5.7 – Exemple de deux segments successifs détectés par l'algorithme, associés à leur
densité spectrale de puissance. Tracés supérieurs : les deux segments détectés. Axes des
abscisses en nombre de points, axes des ordonnées en unité arbitraire. Tracés inférieurs : DSP
en unité arbitraire (axes des abscisses en Hz).
Nous pouvons déduire de ces valeurs que l’algorithme de classification développé donne des
résultats convenables. Il permet de bien sélectionner les segments EMG selon leurs spectres. Le
taux de mal classés est dû à deux raisons principales :
- les segments présentant des artefacts mécaniques sont dans certains cas classifiés comme des
segments EMG (bande de fréquence dans la bande BF de l'EMG)
- les segments de courte durée présentent parfois une mauvaise estimation spectrale et sont
parfois rejetés à tort.
La médiane étant un paramètre important pour l'analyse de l'évolution de l'EMG, nous avons
illustré l'efficacité de la méthode de rejet en traçant la médiane pour chaque segment détecté
avant (figure 5.8 (a)) et après le rejet (figure 5.8 (b)) pour une période donnée. La largeur des
barres du tracé correspond à la durée de chaque segment.
Nous remarquons que les segments dont la médiane était très grande ont bien été éliminés. Par
contre, quelques segments pour lesquels la médiane était trop faible (artefacts mécaniques) ont
été conservés.
(a) (b)
FIG. 5.8- Exemple d’évolution de la médiane pour une période d’expérimentation avant (a) et
après rejet(b). Axes des abscisses en secondes, axes des ordonnées en Hz.
Le test de rejet a permis de sélectionner les segments contenant une activité EMG "e xploitable"
parmi tous les segments détectés dans les signaux réels. Les segments sélectionnés contiennent
cependant à la fois des activités toniques utiles à l'analyse et des activités phasiques
Application - Adaptation aux signaux réels 117
FIG. 5.9 – Exemple d’un résultat de classification. Axe des abscisses en secondes, axe des
ordonnées en unité arbitraire.
La figure 5.9 montre un exemple de classification qui a permis de sélectionner les segments
correspondant à des activités toniques.
Les performances en classification ont été mesurées par la comparaison entre la classification
obtenue par l'algorithme et l'étiquetage effectué par un expert, en utilisant les mêmes signaux que
pour l'étude des seuils. Le tableau 5-7 présente les résultats de classification entre segments
toniques et phasiques.
118 Application - Adaptation aux signaux réels
Nous avons obtenu une bonne classification par l’algorithme, grâce en particulier à la différence
nette entre activités toniques et phasiques en termes de variation de puissance.
Le but final de l’étude est l'analyse de l’évolution fréquentielle des signaux au cours de
l'expérimentation, afin de déceler une éventuelle induction de fatigue attestée par une
compression spectrale. Cette évolution est ici analysée au travers de la valeur de la médiane
spectrale, dont il a été montré auparavant qu'elle était peu sensible au bruit, et donc largement
utilisée comme indicateur dans les travaux relatifs à la fatigue musculaire. Les méthodes de rejet
et de classification nous ont permis de ne sélectionner que les activités toniques. Il reste à
calculer l’évolution de la médiane pendant toute la durée d’expérimentation et pour les 4
situations : avec et sans vibration, siège T et L.
La figure 5.10 illustre l’évolution de cette fréquence médiane pour tous les segments toniques et
pour un des sujets (sujet Mm) et cela pour les quatre conditions expérimentales :
− Siège L sans vibration, figure 5.10 (a)
− Siège T sans vibration, figure 5.10 (b)
Application - Adaptation aux signaux réels 119
(a) (b)
(c) (d)
FIG. 5.10 – Evolution de la fréquence médiane durant une phase complète d’expérimentation,
pour les 4 configurations : (a) siège L sans vibration (b) siège T sans vibration (c) siège L avec
vibration (d) siège T avec vibration. Axes des abscisses en seconde, axes des ordonnées en Hz.
Cet exemple montre une grande variabilité de la médiane, malgré l'élimination des segments trop
bruités, la réduction du bruit dans les segments conservés et l'élimination des segments
phasiques. Si la médiane semble parfois évoluer à l'intérieur d'une période, il n'apparaît aucune
tendance globale dans le sens d'une compression spectrale au fur et à mesure du déroulement du
test.
Afin de disposer d'une vue plus globale sur l'évolution de la médiane en fonction des conditions
expérimentales, nous avons calculé, pour chaque expérimentation exploitable et pour le muscle
déjà sélectionné pour les tests précédents (CES gauche), une régression linéaire sur l'ensemble
des valeurs de médiane. Nous avons représenté ensuite chacune des expérimentations par un
120 Application - Adaptation aux signaux réels
point dans un plan ordonnée à l'origine vs. pente de la droite de régression. Ce calcul de
régression n'a été mené que pour les enregistrements pour lesquels le nombre de segments restant
après rejet et classification était suffisant. Le résultat, présenté sur la figure 5.11, est très clair :
− en ce qui concerne les pentes, elles se distribuent autour de zéro. Le test sur le coefficient de
R
corrélation n − 2 → Tn− 2 ne retient que 7 corrélations significatives sur les 26
1− R2
signaux testés (p<0,05), et pour les signaux conservés, 2 pentes seulement sont négatives,
sans que cela soit relié d'une façon quelconque à une configuratio n expérimentale
particulière.
− de même il n'apparaît aucune classe particulière reliée à une configuration expérimentale
spécifique.
Ce résultat final montre que, quelque soit le soin apporté aux différents traitements appliqués aux
signaux EMG posturaux considérés ici, il n'apparaît aucune évolution spectrale significative au
cours d'une expérimentation d'inconfort de longue durée.
D'autre part il n'apparaît aucune classe en lien avec une condition expérimentale spécifique.
Ce résultat final montre que, quelque soit le soin apporté aux différents traitements appliqués aux
signaux EMG posturaux considérés ici, il n'apparaît aucune évolution spectrale significative au
cours d'une expérimentation d'inconfort de longue durée.
Dans ce chapitre ont été présentés les résultats de l’application de notre méthodologie sur les
signaux EMG acquis dans le cadre d'expérimentations pour l’étude de l’inconfort lors d’une
conduite de longue durée.
La segmentation a donné des résultats efficaces pour la détection de la variation des signaux en
énergie et en fréquence, ce qui nous a permis de détecter les différents activités présentes dans
les signaux (activité toniques, phasiques ou bruits). La procédure du choix de seuil a montré
l'indépendance de cette valeur de seuil vis à vis des sujets, ce qui permet de ne pas recalculer ce
seuil sujet par sujet. Cependant cette valeur de seuil restait dépendante des conditions
expérimentales.
Par contre l’algorithme présente encore quelques limitations. La première est qu’il est incapable
de détecter les segments de durée très petite (moins de 0.238 s). Cette limitation ne concernait
que très peu l'application traitée puisque seuls les segments toniques (longs) étaient analysés.
L'influence de phases différentes très courtes dans ces segments était donc très réduite.
Cependant, si de tels segments sont importants pour l'analyse de signaux dans d'autres contextes,
il sera nécessaire de développer un algorithme spécifique pour la détection de ces segments de
durée très courte. La seconde limitation réside dans le fait que l’algorithme n'a été testé (surtout
pour ce qui concerne la procédure du choix des seuils) que sur des signaux EMG. Il serait utile
de valider également l’algorithme en faisant des tests sur d'autres types de signaux. Les signaux
de parole semblent être de bon candidats pour cette évaluation dans la mesure où leurs
caractéristiques diffèrent notablement de celles des EMG.
Pour ce qui concerne le rejet, l’algorithme développé donne des résultats satisfaisants, bien que
dans certains cas (cas de quelques activités mécaniques dues aux vibrations qui interfèrent avec
les signaux EMG aux basses fréquences) le rejet utilisant un modèle analytique de spectre ne
fonctionne pas. Nous nous trouvons au niveau spectral dans le même type de difficulté que pour
des activités courtes du domaine temporel. Ici, ce sont des bandes de fréquences étroites qui sont
concernées, et qui ne suffisent pas à créer une erreur d'ajustement suffisante, alors qu'elles
122 Application - Adaptation aux signaux réels
risquent malgré tout de perturber l'estimation des paramètres spectraux comme la médiane et
surtout les déciles.
L’algorithme de classification donne également des bons résultats. Cependant nous n'avons pas
insisté sur cette part de la procédure dans la mesure où l'algorithme est adhoc, adapté uniquement
aux signaux traités ici. Il ne présente donc aucun caractère de généricité.
Pour l'analyse finale liée au problème de l’inconfort, et à partir des remarques initiales sur les
activités respectives des différents muscles nous avons mis en évidence le fait que les muscles
les plus informatifs en matière d’activité électromyographique liée à la posture étaient les
muscles du cou. Nous avons alors d'abord limité l'étude aux signaux issus de ces muscles. Nous
étant placés ainsi dans les meilleures conditions, c'est à dire celles pour lesquelles la survenue
d'un inconfort devait être la plus marquée, nous n'avons pu mettre en évidence aucune évolution
spectrale spécifique. Ceci met en évidence soit l’inaptitude du signal EMG à traduire
objectivement un inconfort local dans les conditions expérimentales de l'étude, soit le fait qu'un
ressenti d'inconfort ne se traduit pas nécessairement au niveau local par une modification des
caractéristiques du signal de commande électrique musculaire.
Nous n'avons malheureusement pas les éléments suffisants pour conclure en faveur de l'une ou
l'autre hypothèse. Nous pouvons simplement remarquer que, lorsqu'à l'intérieur d'une même
période les variations de médiane sont significatives (souvent vers une compression spectrale), la
valeur initiale de la médiane à la période suivante correspond souvent à une discontinuité. Cette
remarque, dont il faut cependant reconnaître qu'elle est purement qualitative, laisse malgré tout à
penser que les interruptions entre les périodes, nécessaires aux autres tests (en particulier
sensoriels), perturbent de façon importante la mise en place d'un processus de fatigue. En effet le
sujet est actif durant ces phases intermédiaires, permettant ainsi un "lessivage" des muscles
similaire à une remise à l'état initial.
Conclusion 123
Conclusion
L’analyse et l’étude de l’inconfort à partir des signaux SEMG de longue durée nécessitent un
traitement adapté, pour tenir compte du caractère très spécifique de ces signaux, concernant en
particulier une durée importante et un rapport signal sur bruit très défavorable. C’est sur cette
base qu’ont été développées toutes les méthodologies de ce travail.
L’ajustement et l’adaptation des paramètres des algorithmes ont été présentés dans le chapitre 3.
Parmi ces paramètres il y a ceux qui concernent l’algorithme MDCS lui même, les paramètres
d’estimation des processus AR ainsi que le choix de l’ordre de ces processus. Pour l' estimation
des paramètres des processus AR c'est la méthode de covariance qui a été finalement retenue, et
un ordre de 20 a été choisi pour la modélisation.
124 Conclusion
Une méthode originale de calcul des seuils a ensuite été présentée dans ce chapitre. Elle est
fondée sur le calcul de la distribution de l’information de Kullback- Leibler dans le signal. Nous
avons pu constater ensuite que la valeur obtenue sur le seuil était indépendante du sujet mais
variait en fonction des conditions expérimentales.
Dans le chapitre 4, nous avons traité le problème de l’estimation du spectre EMG. Nous avons
indiqué les raisons qui nous conduisaient à utiliser le périodogramme de Welsh pour cette
estimation. Trois méthodes de rejet ont été testée. La première était fondée sur la distance entre
spectre complet et spectre tronqué, les deux autres étant fondées sur l’ajustement de modèles
analytiques sur le spectre EMG. Une comparaison par courbe COR entre ces méthodes a permis
de choisir la méthode reposant sur un modèle exponentiel du spectre proposé dans le cadre de ce
travail. La présence d’un bruit blanc additif dans les signaux conservés nous a ensuite conduit à
proposer une méthode d’élimination de ce bruit afin de mieux estimer les paramètres spectraux.
Pour terminer, nous avons proposé une méthode ad hoc de classification entre segments
phasiques et segments toniques.
Le chapitre 5 a montré les résultats obtenus après avoir testé les méthodes sur l'ensemble des
signaux EMG exploitables. Nous avons exploité les courbes d'évolution de la fréquence médiane
en fonction du temps. Les résultats sont encourageants du point de vue de la détection des
changements fréquentiels et d'énergie. L’algorithme s'est également montré très efficace sur le
plan de la rapidité grâce à la possibilité d'en rendre récursives certaines étapes.
L’étude de l’évolution de la médiane pour les différents sujets et pour les quatre configurations
expérimentales n'a pas permis d'observer d’évolutions significatives quelles que soient les
conditions expérimentales. Compte tenu du soin pris afin de n'extraire des signaux que des
informations pertinentes, cette inaptitude du signal EMG postural à traduire un inconfort
ressenti, qu’il soit local ou global, tendrait à montrer que cet inconfort n'est pas lié à une
modification (une fatigue) du muscle lui- même.
Sur le plan méthodologique, cette recherche a permis de mettre au point une séquence
automatique de traitements bien adaptés à des signaux longs de faible rapport signal sur bruit.
Deux limitations subsistent cependant pour cet algorithme. La première est qu’il est incapable de
détecter les événements de courte durée, et la deuxième est qu’il est limité à la détection de
changements brusques.
Conclusion 125
La première limitation ne pourra être levée à notre sens que par l'application en parallèle
d'algorithmes spécifiques à la détection de phénomènes transitoires. La seconde implique de se
tourner vers des représentations mieux adaptées à l'analyse de signaux non stationnaires. Des
études utilisant les ondelettes pour la représentation des signaux ont déjà été menées. Une
approche combinant théorie des ondelettes et théorie de la détection pourrait alors être envisagée.
D’autres perspectives sont liées au choix des paramètres utilisés pour suivre l’évolution de la
fatigue où d’autres phénomènes physiologiques à partir des signaux EMG, l'idée étant de
rechercher des indicateurs beaucoup moins sensibles au bruit. Il s'agirait alors de trouver des
indicateurs d'activité électromyographique, reliés par exemple au nombre d'unités mo trices
recrutées et non plus à des caractères globaux, temporels ou spectraux, du signal enregistré.
126
127
Annexe A
Information de Kullback-Leibler -
Cas de deux modèles AR
L’information de Kullback- Leibler joue une rôle important en probabilité et en statistiques
[Bor87], [Bas93], [Van98]. En effet cette information est utilisée comme index de détectabilité
dans les algorithme de détection. Elle sert également comme une distance entre deux signaux
pour la classification [Bas89] Elle est enfin utilisée dans des applications de traitement de parole
[Gra76].
Par définition [Bor87], [Bas93] l’information de Kullback-Leibler entre deux densités de
probabilité f θ0 et f θ1 d’un variable aléatoire x est donnée par :
f θ0 ( x )
K (θ 0 , θ1 ) = ∫ ln fθ 0 ( x ) dx (A.1)
f θ1 ( x)
De même :
f θ1 ( x)
K (θ1 ,θ 0 ) = ∫ ln fθ1 ( x ) dx (A.2)
fθ 0 ( x )
1 σ2 σ2
K (θ 0 ,θ 1) = [ln 12 + ( 02 − 1)] (A.3)
2 σ0 σ1
et que :
1 σ2 σ2
K (θ1, θ 0 ) = [ln 02 + ( 12 − 1)] (A.4)
2 σ1 σ0
Le cas le plus fréquent est celui de l’information de Kullback-Leibler entre deux densités de
probabilité conditionnelles pour deux processus de modèles AR d’ordre p et de paramètres :
128
1 n f θ1 ( x j / X jj−−1p )
K (θ 0 , θ1 ) = − lim Eθ0 [ si ] = − lim ∫ ∑ ln j −1
fθ 0 ( x j / X jj−−1p )dX jj−−1p (A.5)
i →∞ n →∞ n fθ 0 ( x j / X j− p )
j =1
1 n f θ1 ( x j / X jj−−1p )
K (θ 0 , θ1 ) = lim Eθ1 [ s i ] = lim ∫ ∑ ln j −1
f θ1 ( x j / X jj−−1p )dX jj−−1p (A.6)
i →∞ n→ ∞ n f ( x / X )
j =1 θ0 j j −p
1 σ2 σ2 ∞
K (θ1, θ 0 ) = [−1 − ln 12 + 12 (1 + ∑ ( ck0/1 ) 2 )] (A.8)
2 σ0 σ0 k =1
A1 ( z ) 1 + ∑ a1n .z − n
polynomiale = n =1
p
, les ck0 /1 représentent les coefficients du développement de
A0 ( z) 1 + ∑ a 0 .z − n
n
n =1
A0 ( z) 1 + ∑ an0 .z − n
Taylor de la fraction polynomiale = n =1
.
A1 ( z ) 1 + ∑p a1 .z − n
n
n =1
avec :
p
Al ( z ) = 1 + ∑ aln .z − n , l = 0,1 (A.9)
n =1
En général ces divisions polynomiales conduisent à des sommes infinies, mais en pratique (en
traitement de parole par exemple ) on peut limiter la division jusqu’au 2.p [Gra76], [Bas83a],
[Bas89].
A( z )
Pour calculer les coefficients de Q( z ) = jusqu’au le degré L, l’algorithme en Matlab est :
B( z )
function Q=divpoly(A,B,p,L)
Ap=zeros(L+1,1);
Ap(1:p)=A;
for n=1:L
Q(n)=Ap(n);
129
for j=n:n+p-1
Ap(j)=Ap(j)-Q(n)*B(j- n+1);
end
end
En utilisant cet algorithme on peut calculer les coefficients ck0 /1 puis calculer l’information de
Kullback-Leibler par (A.9) en se limitant à L=2.p.
130
131
132
Annexe B
Equations de Levinson
L’algorithme de Levinson nous permet de calculer d’une façon récursive sur l’ordre les
paramètres d’un processus AR d’ordre p.
Le développement de cet algorithme est classique dans la littératures [Mar87], [Kay88], [Orf90],
[Kun91], aussi nous ne donnons dans cette annexe que les équations de récursivité directes et
inverses qui relient les paramètres de prédiction du processus calculée à un ordre p aux
paramètres de prédictions de ce même processus calculés à une ordre p+1, et inversement.
Les paramètres de prédiction du signal à l’ordre p seront notés par ( a1( p) , a2( p ) ,..., a (pp ) , σ (2p) ) , leur
p
Ap ( z ) = 1 + ∑ an( p ) . z −n (B1)
n =1
On peut alors écrire l’équation de Levinson directe [Orf90] d’une façon matricielle comme suit :
Ap+1 ( z ) 1 − K p +1. z −1 Ap ( z )
= . R (B.3)
ApR+1 ( z ) K p +1 z −1 A ( z)
p
K p+1 est le coefficient de réflexion à l’ordre p+1, définie par :
A partir de ces équations on peut donc relier les paramètres de prédiction d’un processus prédit à
l’ordre p+1, à ceux prédits à l’ordre p.
133
L’équation de Levinson inverse qui permet de passer dans le sens inverse est :
Ap−1 ( z ) 1 K p Ap ( z )
= 1 . (B.6)
Ap−1 ( z ) 1 − K 2p
R
K p .z z ARp ( z )
1
σ (2p−1) = .σ (2p) (B.7)
(1 − K p )
2
A l’aide de ces équations on peut donc obtenir pour un processus AR d’ordre p, les paramètres
de prédiction de ce processus à l’ordre p-1 ( et on peut continuer jusqu’à n’importe quel ordre
q<p).
134
Annexe C
Méthode de noyau pour l’estimation
de densité spectrale de puissance
Une des estimations possibles de la densité de probabilité peut se faire par l’histogramme..
La détermination du nombre de classes d’un histogramme est délicate et on ne dispose pas de
règles objectives pour le définir. Un trop faible nombre de classes fait perdre de l’information et
aboutit à gommer les différences pouvant exister entre des groupes de l’ensemble étudié. En
revanche un trop grand nombre de classes aboutit à une très mauvaise estimation locale de la
densité de probabilité.
On peut d’ailleurs critiquer le fait de représenter par une fonction en escalier la distribution d’une
variable continue : l’histogramme est une approximation assez pauvre d’une fonction de densité
et il serait plus logique de chercher une fonction plus régulière.
La théorie de l’estimation de densité permet de proposer des solutions à ce problème. La
méthode du noyau a été spécifiquement conçue pour résoudre ce type de problème. Considérons
tout d’abord le cas d’histogrammes à classes d’égale largeur h. L’histogramme aboutit à estimer
la densité de probabilité de X au point x par (n i / n.h ) si x appartient à la ième classe de
l’histogramme. La densité est donc la même quelle que soit la position de x entre les extrémités
de cette classe.
Une première amélioration consiste à utiliser la méthode de la « fenêtre mobile » : on construit
autour de x une classe de longueur h : I x = [ x − h / 2; x + h / 2[ et on compte le nombre
1 1
0 si u ≥ ou u <
2 2
K ( u) = (C.2)
1 si - 1 ≤ u < 1
2 2
x − xi
K( ) vaut donc 1 si xi ∈ I x .
h
^
f ( x ) est donc une moyenne arithmétique de fonctions donnant à chaque observation xi un poids
1/h si elle appartient à l’intervalle Ix , 0 sinon.
^
Cette méthode donne cependant une estimation f ( x ) peu régulière. Pour obtenir une fonction
suffisamment « lisse », il est alors possible de généraliser la formule précédente en prenant pour
K (le noyau) une autre expression, en général une densité symétrique. En Pratique
[Sap90][Van00][Fuk90] on utilise fr équemment un noyau gaussien
1 − 12 u 2
K (u ) = e (C.3)
2π
La constante h, appelée constante de lissage (ou aussi «bandwidth »), joue un rôle important
^
analogue à celui de la largeur des classes de l’histogramme : si h est faible f ( x ) sera très peu
^
régulière, si h est grand f ( x ) très lissé.
−1
5
Bien que l’on sache que h doit être théoriquement proportionnel à n [Sap90], [Van00] sa
valeur « optimale » se détermine en fait expérimentalement [Sap90], [Van00].
Dans [Van00] il est démontré que l’estimation d’une densité probabilité d’un échantillons issue
d’une loi normale pour un nombre d’échantillons de 15 par la méthode de noyau sera proche de
la loi théorique quand h est autour de 5.
Dans notre application, on a donc pris h égal à 5 , tout en faisant remarquer que, si le nombre des
segments est faible (< 15 en général) l’utilisation de la méthode sera peu valide.
136
Annexe D
Problème d’ajustement de courbe
par un modèle non linéaire
D-1 Introduction
Le problème d’ajustement d’un donnée à certain modèle algébrique est connue en analyse
numérique, et il s’appelle le problème d’ajustement de courbe [Pap00], [Rus94]. Ce problème
consiste à rechercher les paramètres du modèle qui permet le bon ajustement du modèle
algébrique aux données réels.
Si le modèle est linéaire, on résout le problème par des méthodes de régression linéaire [Sap90],
et si le modèle est non linéaire on résout le problème par des méthodes de régression non linéaire
[Rar98].
On cherche à exprimer la relation entre deux variables X et Y sous forme d’une fonction F qui
dépend de manière non linéaire d’un vecteur de paramètres Α = (α1,...,α q ) .
^
Y = F ( X , Α) (D.1)
Pour résoudre ce problème on utilise la méthode de moindre carrée, on doit donc minimiser par
rapport à A l’erreur quadratique :
1 N
Q( Α) = ∑
2 j=1
( F ( x j , Α) − yi ) 2 (D.2)
Lorsque F est une fonction non linéaire des paramètres A, le minimum ne peut être trouvé que
par une méthode itérative : on part donc avec une extraction initiale des paramètres, que l’on
affine à chaque étape jusqu’à ce que les paramètres ne varie plus. Notons que, pour la plupart
137
des méthodes d’optimisation non linéaire, le minimum obtenue est un minimum locale, situé au
voisinage de l’estimation initiale. Cette dernière devra donc être déterminée avec soin.
Ce problème peut être résolue par l’algorithme classique de Gauss – Newton[Pap00].
138 Bibliographie
Bibliographie 139
Bibliographie
[Ahm89] Ahmed M. S. Comparison of speech enhancement algorithms in terms of LPC
Perturbation. IEEE Transactions on Acoustics, Speech, and signal processing. vol.
37, no. 1, 1989, pp. 426-430.
[Aiv86] Aivazian S., Enukov I., Mechalkine L. Eléments de modélisation et traitement
primaire des données. Mir, Moscou, 1986.
[Aka96] Akay M. Detection and estimation methods for biomedical signals. Academic
press, San Diego, California, 1996.
[Bas83a] Basseville M., Benveniste M. Sequential segmentation of non-stationary digital
signals using spectral analysis. Information Sciences, vol. 29, 1983, pp. 57-73.
[Bar48] Bartlett M. Smoothing periodograms from time series with continuous spectra.
Nature, 1948, vol. 161, pp. 686-687.
[Bat98] Baten Chris T. M. Surface EMG as a tool for analyzing work related
musculoskeletal disorders. Proc. of Third general SENIAM workshop’s, Aachen,
Germany, May1998, pp. 121- 131.
140 Bibliographie
[Bla98] Blanchet G., Charbit M. Traitement numérique du signal- simulation sous Matlab.
Hermes, Paris, 1998.
[Boi00] Boite R., Bourlard H., Dutoit T., Hancq J., Leich H. Traitement de la parole.
Presses polytechniques et universitaires romandes, Lausanne, 2000.
[Bon01] Bonato P., Cheng S., Gonzales-Cueto J., Leardini A., O’Connor J., Roy S.H.
EMG-based measures of fatigue during a repetitive squat exercise. IEEE Eng. in
medicine and biology, vol. 20, no. 6, November/December 2001, pp. 133 – 143.
[Box70] Box G. E. P, .Pierce D. A Distribution of residual autocorrelations in
autoregressive- integrated moving average time series. J. Amer. Stat. Assoc., vol.
64, 1970.
[Bra83] Brandt A.V. Detecting and estimating parameters jumps using ladder algorithms
and likelihood ratio test. Proc. of ICASSP, Boston, MA, 1983, pp. 1017-1020.
[Cha00] Chabert M., Tourneret J.Y., Castanie F. Time-scale analysis of abrupt changes
corrupted by multiplicative noise. Signal processing, vol. 80, 2000, pp. 397-411.
[Cha01] Chabran E., Maton B., Fourment A. Effects of postural muscle fatigue on the
relation between segmental posture and movement. Journal of Electromyography
and Kinesiology, vol. 12, 2001, pp. 67- 79.
[Cia93a] Ciaccio E. J., Dunn S. M., Akay M. Biosignal pattern recognition and
interpretation systems, Part I: Fundamental Concepts. IEEE Eng. In Med. And
Bio., September 1993, pp. 89-95.
[Cia93b] Ciaccio E. J., Dunn S. M., Akay M. Biosignal pattern recognition and
interpretation systems, Part II: Methods for feature extraction and selection. IEEE
Eng. In Med. And Bio., December 1993, pp. 106- 113.
[Cia93c] Ciaccio E. J., Dunn S. M., Akay M. Biosignal pattern recognition and
interpretation systems, Part III: Methods and classification. IEEE Eng. In Med.
And Bio., February/Mars 1993, pp. 129- 135.
Bibliographie 141
[Cia93d] Ciaccio E. J., Dunn S. M., Akay M. Biosignal pattern recognition and
interpretation systems, Part IV: Review of applications. IEEE Eng. In Med. And
Bio., April/May 1994, pp. 269- 273.
[Die98] Dieën J. H. Trunk muscle activity in anticipation of lifting loads with known and
unknown internal properties. Proc. of Third general SENIAM workshop’s,
Aachen, Germany, May1998, pp. 132- 140.
[Duc93] Duchêne J., Goubel F. Surface Electromyogram during voluntary contraction:
processing tools and relation to physiological events. Crit. Rev. in Biomed. Eng.,
vol. 21, no. 4, 1993, pp. 313-397.
[Duc97] Duchêne J., Horgel J.Y. SEMG simulation for MFCV distribution estimates
assessment. Proc. of the Second general SENIAM workshop’s, Stockholm,
Sweden, June1997, pp. 122- 128.
[Duc00] J. Duchêne, J. Horgel A Model of EMG Generation. IEEE Transactions on
Biomedical Engineering, vol. 47, 2000, pp. 192-201.
[Fal00] Falou E. W., Khalil M., Duchêne J. AR based method for change detection using
dynamic cumulative sum. Proc. of the 7th IEEE International conference on
Electronics, circuits, and systems. ICECS 2000, Jounieh, Liban, Décembre 2000.
[Fal01a] Falou E. W., Duchêne J, Grabish M., Hewson D., Langeron Y., Lino F. Analysis
[Fal01b] Falou E. W., Duchêne J., Khalil M., Langeron Y. Segmentation avec rejet de
signaux EMG posturaux par une méthode locale. Proc. Colloque GRETSI’01,
Toulouse, France, Septembre 2001.
[Fal01c] Falou E. W., Duchêne J, Grabish M., Hewson D., Langeron Y. Evaluation of driver
discomfort during long duration car driving, Soumis à Applied Ergonomics,
Septembre 2001.
[Fal01d] Falou E. W., Khalil M., Duchêne J. Adaptive approach for SEMG change
detection . Proc. of the 23rd Annual International Conference of the IEEE
142 Bibliographie
[Fal02] Falou E. W., Duchêne J., Khalil M., Hewson D. change detection and
classification in long term Postural EMG recordings. Proc. of the 4th
International Workshop on Biosignal Interpretation. Como, Italy, Juin 2002.
[Jan00] Jana R., Dey S. Change detection in teletraffic models. IEEE Trans. In Signal
Processing, vol. 48, March 2000, pp. 846-853.
[Kar97] Karlsson S., Gerdle B. Fatigue studies using EMG with special reference to
rehabilitation medicine. Proc. of the Second general SENIAM workshop’s,
Stockholm, Sweden, June1997, pp. 129- 137.
[Kar99] Karlsson S., Yu J., Akay M. Enhancement of Spectral Analysis of Myoelectric
Signals During Static Contractions Using Wavelet Methods. IEEE Trans. On
Biomedical Eng., vol. 46,1999, pp. 670-684.
[Kha99b] M. Khalil Une approche pour la détection fondée sur une somme cumulée
dynamique associée à une décomposition multiéchelle. Application à l'EMG
utérin. Dix-septième Colloque GRETSI sur le traitement du signal et des images,
Vannes, France,1999.
[Kha00] Khalil M., Duchêne J. Uterine EMG Analysis: A dynamic approach for change
detection and classification. IEEE Trans. Bio.. Eng., vol. 47, no. 6,2000, pp. 748-
756.
[Kha01] Khalil M., Duchêne J., Marque C., Ziade H., Youssef L., Hamdach S. Extractions
des types d'évènements dans les signaux biomédicaux, Application a
144 Bibliographie
[Kna02] Knaflitz M., Bonato P. Time- frequency methods applied to muscle fatigue
assessment during dynamic contractions. Journal of Electromyography and
Kinesiology, vol.9, 2002, pp. 337- 350.
[Kor99] Korosec D., Zazula D., Merletti R. Influence of the linear model structure and the
electrode placement to the estimation of the mean frequency in surface EMG
signals. Proc. of the fourth general SENIAM workshop’s, Hertogenbosh,
Netherlands, September 1999, pp. 31- 37.
[Kun91] Kunt M., Bellanger M., De Coulon F., Gueguen C., Hasler M., Moreau N.,
Vetterli M. Techniques modernes de traitement numérique des signaux. Presses
polytechniques et universitaires romandes, Lausanne, 1991.
[Lai98] Lai T. L. Information bounds and quick detection of parameter changes in
stochastic systems. IEEE Trans. Information Theory, vol. 44, no. 7, 1998, pp.
2917-2929.
[Lut99a] Luttman A., Jager M., Witsher K., Vorgerd M., Tegenthoff M. Fatigue- induced
EMG changes during low- level isometric contractions. SENIAM- Deliverable 7,
state of the art on signal processing methods for SEMG, 1999, pp. 141-150.
[Lut99b] Luttman A., Jager M., Laurig W. Evaluation of long term EMG recordings for the
determination of muscle strain and fatigue in occupational health. SENIAM-
Deliverable 7, State of the art on signal processing methods for SEMG, 1999, pp.
146-156.
[Mat99] Matei M., Delfosse N., Staroswiecki M., Darkhovski B. Une nouvelle approche
pour la détection en présence de paramètres inconnus. Dix–septième Colloque
GRETSI sur le traitement du signal et des images, Vannes, France, 1999.
Bibliographie 145
[Obr97] Obrecht R. A., Jacob B., Parlangeau N. Audio visual speech recognition and
segmental master slave HMM. Proc. AVSP'97, Rhodes, Greece, September 1997.
[Obr88a] Obrecht R. A., Su H. Y. Three acoustic label lings for phoneme based continuous
speech recognition. Proc. Speech'88, Edinburgh, 1988, pp. 943-950.
[Pai87] Paiss O., Inbar G.F. Autoregressive modeling of Surface EMG and Its Spectrum
with Application to Fatigue. IEEE Transactions On Biomedical Engineering, vol.
34, 1987, pp. 761-770.
[Pag54] Page E. S. Continuous inspection schemes. Biometrika, vol. 41,1954, pp. 100-115.
[Pon98] Ponnet H., Spaepen A., Hermans V., Wouters, M. Simulation and validation of
fatigue induced changes in the electromyographic signal. Proc. of the Third
general SENIAM workshop’s, Aachen, Germany, May1998, pp. 87- 93.
[Pop96] Popescu T. D. Comparative study of some sequential detection methods for digital
signals, Studies in information and control, vol. 5, December 1996, pp. 345-351.
[Pro96] Proakis J. G., Manolakis D. G., Digital signal processing principles, Algorithms,
and Applications. Englewood Cliffs, Prentice- Hall, NJ, 1996.
[Rar98] Rardin L. R. Optimization in operation research. Prentice-Hall, NJ, USA, 1998.
[Red79] Reddi S. S. Multiple source location – A digital approach. IEEE Trans. Aero.
Electro. Syst., vol. AES –15, 1979, pp. 95-105.
[Rou87] Rougée A., Basseville M., Benveniste, A., Moustakides G. Optimum robust
detection of changes in the AR part of a multivariable ARMA Process. IEEE
Transactions on Automatic Control, vol. 32, 1987, pp. 1116-1120.
[Sar95] Saric Z. M., Turajilic S. R. A new approach to speech segmentation based on the
maximum likelihood. Circuits Systems Signal Process, vol. 14, 1995, pp. 615-632.
[Sch86] Schmidt R. O. Multiple emitter location and signal parameter estimation, IEEE
Trans. Antennas Propagation, vol. AP- 34, 1986, pp. 276-280.
[Sei87] Seidel H., Beyer H., Brauer D. Electromyographic evaluation of back muscle
fatigue with repeated sustained contractions of different strengths. Eur. J. Appl.
Physiol., vol. 56, 1987, p 592
Bibliographie 147
[Sek91] Seki K., Miyazaki Y., Watanabe M., Nagata A., Narusawa M. Surface
electromyogram spectral characterization and motor unit activity during voluntary
ramp contraction in men, Eur. J. Appl. Physiol., vol. 63, 1991, pp. 165
[Shw75] Shwedyk E., Balasubsubramanian R., Scott R. N. A nonstationary model for the
electromyogram. IEEE Transactions on Biomedical Engineering and signal
processing. vol. 24, no. 5, 1977, pp. 417-424.
[The92] Therrien W. C. Discrete random signals and statistics signal processing.
Englewood Cliffs, Prentice- Hall, NJ, 1992.
[Ton75] Tong H. Autoregressive model fitting with noisy data by Akaike information
criterion. IEEE Transactions On Information Theory, vol. IT 21,1975, pp. 476-
480.
[Ton77] Tong H. More on Autoregressive model fitting with noisy data by Akaike
information criterion, IEEE Transactions On Information Theory, vol. IT 23,1977,
pp. 409-410.
[Tur96] Turajilic S. R., Saric Z. M. Sequential speech segmentation based on the spectral
ARMA transition measure. Circuits Systems Signal Process, vol. 15,1996, pp. 71-
92.
[Van98] Van Dieen J.H., De Looze M.P. Trunk muscle activity in anticipation of lifting
loads with known and unknown inertial properties. Proc. of the Third general
SENIAM workshop’s, Aachen, Germany, May1998, pp. 132- 140.
[Van00] Van der Vaart A.W. Asymptotic statistics. Cambridge university press, NY, USA,
2000.
[Wes99] Westgaard R.H. SEMG in ergonomics: possibilities and limitations , Proc. of the
fourth general SENIAM workshop’s, Hertogenbosh, the Netherlands, September
1999, pp. 43- 48.