Вы находитесь на странице: 1из 151

Université de Technologie de Troyes (UTT)

Wassim El Falou

Une approche de la segmentation dans des signaux de


longue durée fortement bruités. Application en
ergonomie.

Thèse présentée pour de l’obtention du grade de Docteur de


l’Université de technologie de Troyes

Soutenue le 19 Décembre 2002 devant le jury composé de :

M. Hervé Rix Rapporteur


M. Lotfi Senhadji Rapporteur

Examinateurs :

M. Paul Gaillard Président du jury


M. David Hewson
M. Mohamad Khalil
M. Jacques Duchêne Directeur de thèse

Discipline : Sûreté des Systèmes


2

A ma famille, Racha et Mazen


Remerciements

Je dois d’abord dire un grand merci à Dieu qui m’a aidé à achever cette thèse. Je ne sais pas si
j’arrive à remercier toutes les personnes que j’ai rencontrées durant mes années de doctorat. En
tout cas qu’elles sachent toutes ma profonde reconnaissance.
Je commence par remercier mon directeur de thèse Mr Jaques Duchêne qui n’a pas cessé de me
conseiller durant toutes ces années pour faciliter mon travail de recherche et m’a guidé pour bien
accomplir cette tâche. Sans lui, ça était vraiment difficile. Je profite encore pour saluer ses
qualités humaines et les relations amicales et chaleureuses qu’il sait entretenir avec ses
chercheurs considérés tous comme des amis.
Je remercie aussi mon co-directeur au Liban Mr Mohamad Khalil qui m’a encouragé à faire
cette thèse et m’a supporté beaucoup durant ces trois années. Je salut son dynamisme et la qualité
de son support.
Mes remerciements s’adressent encore à tous les membres du jury et messieurs les rapporteurs
qui ont eu la gentillesse d’accepter cette tâche.
Mes remerciements à Dr. Haissam Ziade de la faculté de génie de l’université libanaise pour tous
ses conseils et ses encouragements durant cette thèse.
Mes grand remerciements aux membres du laboratoire LM2S et surtout :
- Le directeur du labo Mr Igor Nikiforov
- Mon ami dans le bureau David Hewson
- Florent Retraint, Yves Langeron, ….
Mes grands remerciements aussi au CNRS Libanais, et à mes enseignants en DEA modélisation
mathématique.
A tous mes étudiants à la faculté de génie au Liban et surtout : Maria, Ramia, Hassan, Rabih,
Sandy, André, Siba, Rawad, Majed, mes deux stagiaires : Mostapha et Jocleyne,... un grand
merci.
Enfin, j’adresse une vive reconnaissance à deux de mes amis qui m’ont accompagné durant mes
à Troyes, Bacem Backache et Fahed Abdallah, pour les beaux moments que j’ai passés avec eux.
Enfin, je ne peux pas oublier mes amis et toutes les personnes que j’ai rencontrées durant ces
années : la famille Duchêne et surtout Mme Babeth, Véronique et les autres filles, Ismain, Saïd,
Fekhra, Karim, Farid, Lydie, Natasha, Azzam, Fadi, Houssam,Janah.
Mes chaleureux sentiments et mes grands remerciements pour mes parents et surtout ma sœur
Rawa pour son aide precieuse dans la correction et la lecture de ce rapport.
4
Table des matières 1

Table des matières


Introduction générale ....................................................................................................................... 9
Chapitre 1 ...................................................................................................................................... 13
Position du problème..................................................................................................................... 13
1-1 Introduction.......................................................................................................................... 13
1-2 Objectifs de l’étude.............................................................................................................. 13
1-3 Eléments de description des signaux ................................................................................... 15
1-3-1 Origine de l’EMG ......................................................................................................... 15
1-3-2 Le SEMG utilisé en fatigue musculaire et ergonomie .................................................. 16
1-4 Expérimentation et description des signaux ........................................................................ 17
1-4-1 Dispositif expérimental et protocole ............................................................................. 17
1-5 Les différentes étapes du traitement des signaux SEMG .................................................... 20
1-6 Conclusion........................................................................................................................... 22
Chapitre 2 ...................................................................................................................................... 23
Algorithmes de Détectio n de changements ................................................................................... 23
2-1 Introduction.......................................................................................................................... 23
2-2 Méthodes de détection des ruptures dans le cas d'un changement à paramètres connus ..... 24
2-2-1 Formulation mathématique élémentaire ....................................................................... 24
2-2-2 Algorithme de Neyman - Pearson................................................................................. 24
2-2-3 Algorithme de somme cumulée CUSUM ..................................................................... 25
2-3 Méthodes de détection des ruptures dans le cas d’hypothèses à paramètres inconnus ....... 29
2-3-1 Méthode du rapport de vraisemblance généralisé......................................................... 29
2-3-2 Méthode de Brandt........................................................................................................ 30
2-3-3 Quelques autres méthodes développées pour le cas du changement spectral............... 31
2-3-4 Somme Cumulée Dynamique (DCS)............................................................................ 34
2-4 Conclusion........................................................................................................................... 45
Chapitre 3 ...................................................................................................................................... 47
MDCS et choix des paramètres ..................................................................................................... 47
3-1 Introduction.......................................................................................................................... 47
3-2 Choix du modèle de représentation des signaux dans l’algorithme de détection................ 47
3-2-1 Le modèle ARMA ........................................................................................................ 48
3-2-2 Modèle AR.................................................................................................................... 50
2 Table des matières

3-3 Méthode automatique du choix des seuils ........................................................................... 68


3-4 Compléments et algorithme de segmentation complet ........................................................ 73
3-5 Conclusion........................................................................................................................... 76
Chapitre 4 ...................................................................................................................................... 79
Rejet et Classification.................................................................................................................... 79
4-1 Introduction.......................................................................................................................... 79
4-2 Estimation spectrale pour l’EMG ........................................................................................ 80
4-2-1 Estimation par périodogramme..................................................................................... 80
4-2-2 Estimation paramétrique ............................................................................................... 81
4-2-3 Estimation pseudo- spectrale par la méthode MUSIC .................................................. 83
4-2-4 Discussion sur le choix de la méthode d’estimation du spectre EMG.......................... 85
4-3 Méthodes d’élimination du bruit dans le spectre ................................................................ 86
4-3-1 Introduction................................................................................................................... 86
4-3-2 Elimination par estimation moyenne du bruit............................................................... 87
4-3-3 Elimination du bruit par modélisation paramétrique .................................................... 88
4-3-4 Conclusion.................................................................................................................... 89
4-4 Méthode de rejet .................................................................................................................. 90
4-4-1 Nécessité de rejet .......................................................................................................... 90
4-4-2 Procédure de rejet par distance entre spectres complets et tronqués ............................ 92
4-4-3 Rejet par modélisation du spectre EMG....................................................................... 96
4-5 Classification phasique / tonique ....................................................................................... 102
4-6 Conclusion......................................................................................................................... 103
Chapitre 5 .................................................................................................................................... 105
Application - Adaptation aux signaux réels ................................................................................ 105
5-1 Introduction........................................................................................................................ 105
5-2 Résultats de la segmentation.............................................................................................. 105
5-2-1 Calcul des seuils de segmentation .............................................................................. 106
5-2-2 Exemples de segmentations ........................................................................................ 113
5-3 Résultats de la procédure de rejet ...................................................................................... 115
5-4 Classification des activités toniques et phasiques ............................................................. 116
5-5 Evolution des paramètres spectraux .................................................................................. 118
5-6 Discussion des résultats et conclusion............................................................................... 121
Annexe A..................................................................................................................................... 127
Information de Kullback-Leibler - Cas de deux modèles AR..................................................... 127
Table des matières 3

Annexe B..................................................................................................................................... 132


Equations de Levinson................................................................................................................ 132
Annexe D..................................................................................................................................... 136
Problème d’ajustement de courbe par un modèle non linéaire ................................................... 136
D-1 Introduction....................................................................................................................... 136
D-2 Position du problème ........................................................................................................ 136
Bibliographie ............................................................................................................................... 139
Abréviations 5

Abréviations
AR Autoregressive process
ARMA Moving average autoregressive process
CUSUM Cumulative sum
COR Courbe Opérationnel du Récepteur
DCS Dynamic cumulative sum
EMG Electromyography
ECG Electro encephalogram
MNF Mean frequency
MDF Median frequency
MDCS Modified dynamic cumulative sum
MA Moving average process
SEMG Surface electromyography signal
Notations 7

Notations
θ0 : vecteur paramètre de l’hypothèse H0

θ1 : vecteur paramètre de l’hypothèse H1

εi : erreur de prédiction
an : coefficient AR numéro n
bn : coefficient MA numéro n
Eθ 0 [ s ] : espérance du logarithme de vraisemblance sous H0

Eθ1 [ s ] : espérance du logarithme de vraisemblance sous H1

fθ 0 : densité de probabilité correspondant à H0

f θ1 : densité de probabilité correspondant à H1

gj : fonction de détection
h : seuil de détection
hL : seuil haut
hH : seuil bas
IKL : séquence de l’information de Kullback – Leibler dans un signal
j : instant courant
k : instant de changement
K (θ 0 ,θ 1) : information de Kullback - Leibler

KL : coefficient multiplicatif pour le seuil bas


KH : coefficient multiplicatif pour le seuil haut
MIKL : racine carrée de la moyenne de la somme des carrés de IKLb
N : longueur de la fenêtre
Sj : somme des logarithmes des rapports de vraisemblance jusqu'à l’instant j
si : logarithme du rapport de vraisemblance
ta : instant d’arrêt
x1 , …, xn : séquence des échantillons jusqu’à n
Introduction générale 9

Introduction générale
Dans le traitement et l'analyse de signal, la décomposition d'un signal en segments stationnaires
lorsqu'ils existent, constitue une première phase dans de nombreux domaines d'applications. La
segmentation sert en particulier à l'identification des différentes activités dans les signaux et à
l'élimination de phénomènes transitoires ou de segments trop bruités. Pendant ou après la
segmentation, suivant l'approche considérée, une classification peut être nécessaire afin de
limiter l’analyse aux activités utiles pour la prise de décision, quelle qu'elle soit.
Le travail présenté dans ce mémoire s’intègre dans cet objectif général de segmentation, de
classification et d’analyse des signaux. Le type de signal concerné est l'électromyogramme
(EMG) de surface, et l'objectif applicatif est d’étudier l’évolution de l'inconfort lors d’une
conduite de longue durée sous l'angle de la mise en évidence d'une éventuelle fatigue musculaire
locale. Les trajets automobiles de longue durée induisent en effet fréquemment des phénomènes
d'inconfort, en particulier au niveau musculaire, aussi bien pour le conducteur que pour les
passagers. Cet inconfort n'est généralement traduit que par des analyses sensorielles, sans qu'il y
ait un lien établi avec l'activité musculaire locale. On sait par ailleurs que l’analyse spectrale des
signaux électromyogrammes de surface (SEMG) peut fournir une indication sur l’apparition et la
progression de la fatigue musculaire. Ce signal est donc censé porter l'information locale
nécessaire pour faire le lien s'il existe, entre sensation d'inconfort et fatigue locale.
L’objectif de ce travail est donc l’étude de l’évolution de l’inconfort d’un opérateur assis en
situation de pilotage de longue durée.

En partant de ces hypothèses, nous nous sommes placés dans les conditions d’un trajet routier
par simulation sur un banc de mesures, et nous avons enregistré les signaux SEMG de différents
muscles des sujets en situation de passagers, c'est à dire exempts de toute tâche de conduite. Les
signaux SEMG sont alors réduits à la commande d’un maintien postural, ce qui signifie des
signaux de très faible activité par rapport aux signaux engendrés par exemple par des
mouvements volontaires. La première caractéristique fondamentale des signaux à prendre en
considération pour définir les méthodes de traitement sera donc un rapport signal sur bruit très
défavorable, au point qu'il s’agira surtout en premier lieu de développer une méthode de
segmentation permettant de ne conserver que les parties du signal exploitables du point de vue de
l'existence d'un contenu EMG exploitable. La deuxième caractéristique est qu'une induction de
10 Introduction générale

fatigue en maintien postural implique des expérimentations de longue durée (2h30 pour ce qui
nous concerne). Les méthodes de traitement devront prendre en compte ce paramètre de durée.

Une méthode de détection fondée sur une analyse des propriétés locales des signaux a été
développée à partir des travaux de thèse de Mohamad Khalil [Kha99a]. Elle repose sur une
approche statistique dont le principe est connu (CUSUM) mais exploitant un rapport de
vraisemblance calculé localement. Cette méthode, appelée MDCS (Modified Dynamic
Cumulative Sum), représente le corpus méthodologique de ce travail de thèse. Nous montrerons
que cette méthode présente deux avantages majeurs : le premier est qu’elle est rapide. Elle est
donc bien adaptée au traitement de signaux de longue durée. Le deuxième avantage est qu'elle ne
nécessite pas de connaissance a priori sur les événements à détecter, à condition que ceux-ci
puissent être représentés par un processus autorégressif. La méthode doit donc s'appliquer dans
le cas de méconnaissance de l'espace des hypothèses. De plus il a été nécessaire de mettre au
point une méthode adaptative de définition de la valeur des différents seuils impliqués dans la
segmentation. Cette méthode de détermination automatique des seuils a été définie sur la base de
la distribution de l’information de Kullback – Leibler dans le signal.

Après la segmentation, un test de rejet est nécessaire pour éliminer les segments fortement
bruités. Le contexte d'enregistrement en effet implique que la première question concernant les
signaux acquis est de savoir s'il existe dans les segments une activité EMG "significative", cette
notion étant directement liée au rapport signal sur bruit. Pour aborder ce problème du rejet,
plusieurs approches ont été testées, toutes reposant sur les caractéristiques spectrales attendues
d'un segment d'EMG.

Une fois cette suppression des segments non pertinents réalisée, il s'est avéré nécessaire
d'effectuer une classification des segments EMG restants. A la suite de l'étape précédente, tous
les segments conservés sont censés contenir de l'EMG. Cependant, certains d'entre eux
correspondent bien à une activité posturale (activité tonique) alors que d'autre sont le reflet de
mouvements volontaires ou de co-contractions (activité phasique). Le but de l'étude implique de
ne conserver pour l'analyse que les segments correspondant à une activité tonique. La méthode
de classification utilisée pour cela sera fondée à la fois sur des rapports d’énergie locale entre
segments consécutifs et sur la durée des segments.
Introduction générale 11

C'est seulement après cette étape de sélection des segments toniques que la caractérisation de
chaque segment est envisagée afin de décrire une éventuelle induction de fatigue locale. En
partant de l’hypothèse que la fréquence médiane du signal EMG diminue en présence de fatigue
musculaire, c'est ce paramètre spectral global que nous avons analysé.

Compte tenu des différentes étapes décrites précédemment, le mémoire est organisé de la façon
suivante :

• Le chapitre 1 débute par une présentation générale du problème étudié et du protocole


d’expérimentation. Une étude bibliographique sur l’utilisation des signaux SEMG pour
l’étude de la fatigue musculaire et plus généralement dans le domaine de l'ergonomie est
aussi présentée. Dans ce chapitre nous justifierons la nécessité de développer des
algorithmes de segmentation dans une approche locale, ainsi que les caractéristiques
nécessaires des méthodes de rejet et de classification pour qu'elles soient bien adaptées à
ce type de signaux.

• Le chapitre 2 commence par une revue bibliographique sur les algorithmes de détection,
puis nous présenterons l’algorithme de somme cumulée (CUSUM) qui est un algorithme
séquentiel de détection efficace dans les traitements séquentiels et qui permet de bien
localiser les instants de changements brusques. Cet algorithme, utilisé dans le cas de
paramètres d'hypothèses connus, est à la base de deux autres algorithmes adaptés au
problème posé. Le premier est l’algorithme de somme cumulée dynamique (DCS)
développé dans un travail antérieur, l’autre est l’algorithme de somme cumulée
dynamique modifié (MDCS), qui améliore la performance de l’algorithme précédent du
point de vue de la détection de changement entre deux hypothèses proches. Pour la
détection des changements de niveau d'énergie et de contenu spectral, l’utilisation de ces
algorithmes après modélisation autorégressive est aussi décrite. La comparaison entre
MDCS et DCS par courbes COR sur des signaux simulés est également présentée pour
démontrer les performances du nouvel algorithme.

• Le chapitre 3 est consacré au choix des modèles pour la représentation des signaux EMG
(et les méthodes d’estimation de leurs paramètres). Nous étudierons ensuite le choix de
l’ordre des modèles autorégressifs ainsi que son influence sur les performances de la
12 Introduction générale

détection. Une procédure automatique du choix du seuil de détection, fondée sur la


distribution de l’information de Kullback – Leibler, est décrite dans ce chapitre.

• Les procédures de rejet et de classification sont décrits dans le chapitre 4. Deux méthodes
de rejet sont présentées, l’une fondée sur l'allure des spectres dans la partie haute
fréquence, la deuxième reposant sur des méthodes de modélisation spécifique du spectre
de l’EMG. Après rejet, une procédure de classification locale entre activité phasique et
activité tonique est ensuite présentée.

• Dans le chapitre 5, nous présentons les résultats obtenus par l'application de l'ensemble
des procédures sur les signaux réels pour différents sujets et dans les différentes
configurations d’expérimentation. Nous terminerons ce chapitre par une discussion
générale sur les méthodologies, la pertinence de leur application sur les signaux SEMG
de longue durée, en en présentant les avantages et les limites.
Position du problème 13

Chapitre 1
Position du problème

1-1 Introduction

Les trajets automobiles de longue durée induisent fréquemment des phénomènes de fatigue, en
particulier musculaire, aussi bien pour le conducteur et pour les passagers. On sait par ailleurs
que l'analyse spectrale des signaux électromyographiques de surface (SEMG) peut fournir une
indication sur l’apparition et la progression de la fatigue. L’analyse spectrale est souvent utilisée
puisqu’il a été montré que le spectre de l’EMG se compresse avec la fatigue. En se servant de ces
signaux, on peut espérer mettre en évidence le phénomène de fatigue musculaire et ainsi disposer
d’un outil de choix du siège le plus confortable du point de vue de la fatigue musculaire (qui
n’est cependant qu’un des aspect du ressenti d’inconfort che z les conducteurs et les passagers).
Dans ce chapitre, nous commençons par la description de l’objectif global de l'étude, puis nous
donnerons un bref aperçu de la physiologie associée aux signaux SEMG. Ensuite nous
présenterons l’expérimentation et l’acquisition des signaux.
A la fin du chapitre, nous reviendrons sur les différentes étapes de traitement à mettre en œuvre
pour extraire de l’EMG de surface dans de bonnes conditions les paramètres caractérisant la
fatigue musculaire.

1-2 Objectifs de l’étude

Cette étude porte sur l’évaluation de l’inconfort d’un opérateur assis en situation de pilotage de
longue durée. Nous considérons pour cela l’évaluation de l’inconfort dynamique en conduite qui
peut être ramené à la caractérisation du système homme- siège.
En effet, le conducteur et les passagers sont soumis à des vibrations directement liées aux
caractéristiques du véhicule et de la route. Ces vibrations sont essentiellement transmises au
séant et au dos de l’occupant (c’est-à-dire le long de l’axe vertébral) par l’intermédiaire de
14 Position du problème

l’assise et du dossier du siège. Les commandes telles que les pédales et le volant peuvent en
outre transmettre des vibrations aux pieds et aux mains du conducteur.
Il est maintenant admis que les vibrations combinées à une position assise produisent un
inconfort plus ou moins prononcé et durable suivant les individus, notamment lors des trajets de
longue durée.
La connaissance des mécanismes physiologiques, physiques et psychologiques qui interviennent
dans la dégradatio n du confort s’avère donc indispensable non seulement pour améliorer la
sensation de bien être de l’individu, mais également pour éviter toute dégradation de la
performance.
En partant de cette hypothèse, nous nous sommes placés dans les conditions d’un trajet routier
par simulation sur un banc de mesures, et nous avons enregistré les signaux SEMG de différents
muscles des sujets. En effet, l’électromyographie de surface (SEMG) est un outil généralement
utilisé dans l'étude de l'activité de muscle puisqu'il fournit de façon non invasive une information
sur le niveau d'activation de muscle. Le signal SEMG est en particulier souvent utilisé comme
moyen pour étudier la progression de la fatigue sachant que les composantes fréquentielles du
spectre de puissance des signaux SEMG se décalent vers les basses fréquences en présence de
fatigue. La réduction correspondante de la fréquence moyenne ou de la fréquence médiane du
signal peut alors être employée pour identifier l’apparition et la progression de la fatigue
musculaire.
Ce qui nous intéresse donc dans cette étude, ce sont les signaux SEMG lors d’un maintien
postural, ce qui signifie des signaux de très faible activité par rapport aux signaux engendrés par
des mouvements volontaires. La première caractéristique des signaux à prendre en considération
pour définir les méthodes de traitement sera donc un rapport signal sur bruit défavorable. Il
s’agira alors en premier lieu de mettre au point une méthode de segmentation permettant de ne
conserver que les parties du signal exploitables du point de vue de leur contenu EMG.
Le deuxième aspect déterminant le choix des méthodes réside dans le fait que les signaux
posturaux sont pollués par des bouffées d’activité émanant de mouvements volontaires. La
segmentation devra donc également prendre en compte ces événements « phasiques ». Il sera
nécessaire ensuite de mettre en place des méthodes de classification pour identifier
l’appartenance de chacun des segments. Nous justifierons dans la suite une approche séparée
entre segmentation et classification.
La troisième caractéristique de ces signaux est qu’ils ont une durée importante, l’induction de
fatigue nécessitant des simulations de longue durée. Les méthodes devront donc prendre en
Position du problème 15

compte cet aspect en ne traitant pas globalement l’ensemble de l’enregistrement mais en utilisant
plutôt une approche locale.
Le paragraphe suivant va aborder la physiologie des signaux EMG, et va donner une description
de l’expérimentation et des types des signaux extraits.

1-3 Eléments de description des signaux

1-3-1 Origine de l’EMG

Un muscle est formé d’un ensemble de fibres musculaires, elles même formées de myofibrilles
qui sont responsables de la contraction. Pour provoquer la contraction, les fibres musculaires
reçoivent, d’un nerf, un influx nerveux qui est en fait un stimulation électrique. Cette stimulation
est transformée en énergie (contraction) par réaction chimique au niveau des myofibrilles. Il faut
noter que chaque nerf ne concerne pas qu’une seule fibre mais un groupe de fibres appelé « unité
motrice ». Le muscle est lui- même formé d’un certain nombre de ces unités motrices. Le
faisceau de nerfs stimulant le muscle forme le nerf moteur.
Lorsqu’une unité motrice est excitée, elle se contracte puis se relâche. Pour la garder contractée,
il faudra la stimuler de nouveau avant la fin du relâchement. L’influx nerveux se traduit donc par
des impulsions électriques, à basse fréquence pour un petit effort, cette fréquence augmentant au
fur et à mesure que l’effort demandé devient plus intense. Il faut noter que, comme toutes les
unités motrices ne sont pas excitées de façon synchrone, le mouvement est alors « lissé ».
Les fibres musculaires, comme les cellules nerveuses, entretiennent de part et d’autre de leur
membrane une différence de potentiel ou potentiel de repos, qui témoigne de la polarisation de la
membrane. Toute contraction musculaire est précédée d’une dépolarisation, qui se manifeste
d’abord au niveau de la jonction neuromusculaire ou plaque motrice, sous l’action de
l’acétylcholine libérée par l’influx nerveux. Ce potentiel de plaque excite la membrane
musculaire, qui propage l’onde de dépolarisation tout au long de la fibre sous la forme d’un
potentiel d’action.
Les potentiels d'action se propagent le long de la membrane de la fibre musculaire et rayonnent
dans les tissus conjonctifs du muscle, de la graisse, et de la peau. Ils sont commodément détectés
sur la surface de la peau. Le signal électromyographique (EMG) est une addition des trains de
potentiel d'action d'unités motrices qui sont détectés par un système d'électrodes à proximité des
16 Position du problème

fibres. Quand les électrodes sont placées sur la surface de la peau, le signal détecté est désigné
sous le nom d'électromyogramme de surface (SEMG).
L'amplitude du signal d'EMG est stochastique (aléatoire) avec une distribution gaussienne qui
s'étend de 0 à 6 mV (crête à la crête). L'énergie utilisable du signal est limitée de 0 à 500 hertz
de gamme de fréquence, avec l' énergie dominante étant dans la gamme de 50-150 hertz

1-3-2 Le SEMG utilisé en fatigue musculaire et ergonomie

Luttmann définit [Lut99b] la fatigue musculaire comme étant une réduction de la capacité de la
force générée par le muscle durant le travail. Westgaard donne pour fonction à l’ergonomie
d’assurer un bon compromis entre le travail demandé et les capacités humaines [Wes99].
L’étude de la fatigue musculaire en utilisant les signaux SEMG a débuté dès 1912 [Bat98]. Les
premières études ont été limitées à des tests en condition statique en laboratoire. A présent de
nombreuses études s’intéressent à l’utilisation du signal SEMG pour l’évaluation de la fatigue
musculaire dans des activités naturelles, en particulier dans des applications d’ergonomie.
L’analyse de la fatigue musculaire utilisant les signaux SEMG en médecine de réadaptation est
étudiée par Karlsan et al. [Kar97]. Les signaux SEMG sont également utilisés pour l’analyse du
travail musculaire relié à des désordres squelettiques, en particulier dans trois applications :
évaluation des modèles de coordination du muscle, évaluation de la fatigue musculaire, et
évaluation des moments et des forces spinaux [Bat98]. D’autres auteurs utilisent le signal SEMG
pour l’étude de l’activité musculaire en charge de levage [Die98]. D’autres études encore
utilisent des signaux SEMG pour l’analyse de l’effet physiologique du travail [Duc93], [Lut99a],
[Her99], [Hag99], [Cha01].
Dans ces études la plupart des chercheurs utilisent l’analyse spectrale pour évaluer la fatigue
musculaire. Les deux paramètres les plus utilisés pour l'étude du phénomène de fatigue
musculaire sont la MNF (mean frequency) et la MDF (median frequency). Ces deux paramètres
s’avèrent porteurs d’information dans la mesure où avec la fatigue musculaire, les signaux
SEMG subissent une compression spectrale [Gra97c], [Mer99a].
L’estimateur spectral de la MNF a une variance plus faible que celui de la MDF [Mer99a]. Son
utilisation sera préférée dans le cas d’un rapport signal sur bruit favorable. Par contre dans le cas
d’un bruit élevé il est préférable d’utiliser la MDF, moins sensible au bruit, mais sensible aux
effets de la fatigue [Mer99b].
Position du problème 17

L’influence de la fatigue musculaire sur les différents paramètres extraits des signaux SEMG est
étudiée par un modèle de simulation dans [Pon98], l’influence de la position des électrodes sur
ces paramètres est étudiée dans [Kar99].
Dans [Lut98b] il est indiqué que la plupart des résultats de ces études en ergonomie et fatigue
musculaire restant des études de laboratoire, ce qui permet de contrôler au mieux les paramètres
de l’expérience, ce qui n’est pas souvent le cas des applications réelles. En particulier, il est très
difficile de séparer les différents facteurs de variation des paramètres spectraux, par exemple de
distinguer si un changement de spectre SEMG est dû à un changement dans le mode
d’activation du muscle ou à l’apparition de fatigue [Lut98b].
Des méthodes récentes fondées sur l’analyse temps- fréquence sont depuis peu utilisées pour
l’étude de la fatigue musculaire [Kna02], [Bon01] en utilisant les notions de moyenne et médiane
instantanées.
On voit donc à partir de ces quelques références bibliographiques qu’il est légitime d’utiliser le
signal SEMG pour des problèmes d’ergonomie et d’analyse de fatigue, dans des conditions
expérimentales bien contrôlées.

1-4 Expérimentation et description des signaux

1-4-1 Dispositif expérimental et protocole

Ce travail a été développé dans le cadre d’un contrat DRET (N o 95/169) en collaboration avec
Renault et Thomson CSF. Les expérimentations ont été menées sous la responsabilité de
Renault, Thomson CSF intervenant pour exploiter des données subjectives recueillies sous forme
de questionnaires, en association avec des données issues de tâches réflexes et de performance
qui ne seront pas évoquées dans le cadre de ce travail. Nous ne décrirons donc du protocole que
ce qui est en rapport avec la génération, l’enregistrement et l’exploitation des signaux
musculaires.
Les signaux ont été enregistrés sur 11 sujets durant une période de 2 h 30 min, les sujets étant
assis sur un siège de voiture (figure 1.1). Chaque sujet a été testé pour quatre configurations
expérimentales : avec et sans vibration (vibration verticale), et pour deux types de sièges (L:
Laguna, T : Twingo) de confort différent.
18 Position du problème

FIG. 1.1 – Exemple d’un sujet lors de l’expérimentation

La détection de l’activité électrique des muscles a été réalisée en dérivation bipolaire, ce qui
signifie que deux électrodes actives (positionnées en regard du muscle choisi) sont nécessaires,
ainsi qu’une électrode de référence.
Le signal SEMG a été enregistré sur 9 muscles posturaux :
tibialis gauche et droit (muscles des jambes) (TA),
erector spinae gauche et droit (lombaires inférieures situées entre L2 et L3) (LOM),
oblicuus externus gauche et droit (abdominaux),
cervical erector spinae gauche et droit (muscles situés à l'arrière du cou entre C4 et C6) (CES),
éminence hypothénar gauche (muscle de l’index) (EM). L’activité de ce dernier muscle a été
enregistrée uniquement dans le cadre du contrôle de la tache réflexe et ne sera pas considérée
dans la suite de l’étude.
Position du problème 19

FIG. 1.2 – Positionnement des électrodes

Le choix des muscles a été effectué à la suite de différentes pré-expérimentations qui ont été
mises en place au début du projet. Deux critères principaux ont dicté ce choix :
amplitude du signal électromyographique
facilité d’accès au muscle et de mise en place des électrodes

Les signaux SEMG ont été échantillonnés à une fréquence de 840 Hz, après filtrage anti-
repliement et filtrage passe haut (20 Hz).
L’ensemble des signaux a été acquis grâce à un logiciel d’acquisition réalisé sous Labview 5, au
travers d’une carte de conversion analogique/numérique 16 voies (ATMIO 16XE10 de National
Instruments) intégrée à un PC de mesure. Elle fo nctionne avec une résolution de 16 Bits sur une
étendue de mesure de +/- 8 Volts (bipolaire). La carte a été utilisée en mode différentiel,
multiplexée sur 24 voies.
Un boîtier de conditionnement renfermant des filtres analogiques anti-repliement a été intercalé
entre le deuxième étage amplificateur des signaux EMG et la carte numérique. Les filtres passe-
bas utilisés sont de type elliptique d’ordre 8. La fréquence de coupure a été fixée à 350 Hz.
Au total 50 tests ont été réalisés, correspondant aux différentes configurations expérimentales.
Chaque test, d’une durée totale de 2h30min, correspondait à l’enregistrement de 8 voies EMG
échantillonnées soit près de 1000 h d’enregistrements à traiter. La fréquence d’échantillonnage à
840 Hz donne une idée du volume des données numériques. C’est pourquoi un des objectif de ce
20 Position du problème

travail de thèse a été de créer des algorithmes de segmentation efficaces et rapides (avec un
maximum de récursivité), avec une définition automatique des différents paramètres de ces
algorithmes (en particulier les seuils) ainsi que des méthodes automatiques de classification et de
rejet des différentes activités détectées dans ces signaux.
Le paragraphe suivant va identifier les traitements successifs nécessaires à l'extraction des
paramètres pertinents capables de suivre le phénomène de fatigue musculaire. Il mettra en
évidence les caractéristiques de ces traitements et les hypothèses sur lesquelles ils doivent
reposer.

1-5 Les différentes étapes du traitement des signaux SEMG

Le problème majeur lié à l’enregistrement de l’activité de muscles posturaux est le fait que le
niveau d’EMG présent dans le signal est très faible, comparé aux bruits environnants provenant
de diverses sources :
- l’ECG
- l’influence électromagnétique du secteur
- un ensemble de bruits parasites liés aux électrodes et à l’instrumentation, la plupart pouvant
être modélisés par un bruit blanc, dont le niveau peut être très supérieur au niveau du signal
dans le cas d’enregistrement d’activités de maintien postural.

D’autre part, les enregistrements ne contiennent pas que de l’activité posturale mais également
des événements phasiques liés pour la plupart à des mouvements ou des co-contractions. On
distinguera en fait trois types d’activités dans les enregistrements :
- l’activité tonique (TO) : activité de fond de maintien postural, directement concernée par
notre étude
- l’activité phasique (PH) : activité liée aux mouvements volontaires ou co-contractions. Dans
le cadre de l’étude, ces activités doivent être considérées comme des segments à éliminer
- l’activité spécifique d’unités motrices (UM). Cette activité est parfois détectée. Elle
correspond au battement spontané d’une unité motrice proche de la surface. Bien que ce
phénomène corresponde à de l’EMG, il risque de créer un biais local dans l’estimation des
différents paramètres extraits de l’EMG. De ce fait les segments correspondants doivent être
également éliminés.
Il est donc nécessaire de traiter les signaux en plusieurs étapes :
Position du problème 21

Pré-traitement

Le pré-traitement permet un premier filtrage des signaux et l’élimination d’artefacts de spectre


ou d’occurrence connue (50 Hz, ECG).
Pour éliminer l’ECG, une voie spécifique d’enregistrement d’ECG est utilisée, afin de ne pas
développer d’algorithme spécifique de reconnaissance de QRS sur les voies d’EMG.
Pour ce qui concerne le 50 Hz, il est éliminé par un filtre réjecteur. La composante continue a été
éliminée par un filtrage passe- haut de 1 Hz.

Segmentation

La segmentation est une phase très importante dans notre travail, l’objectif de la segmentation
étant l’extraction des segments correspondant à l’activité de fond de maintien postural (activité
tonique). Pour cela, nous devons supprimer les parties de segments correspondant à l’activité liée
aux mouvements volontaires ou co-contractions, les parties correspondant à l’activité spécifique
de certaines unités motrices et éventuellement d’autres classes d’événements que nous n’avons
pas identifiées.
Il est alors nécessaire de développer un algorithme de segmentation bien adapté à des signaux de
longue durée, qui tienne compte des variations énergétiques et spectrales des signaux, et qui
définisse de façon automatique les différents réglages des paramètres des méthodes mises en
œuvre, en particulier le problème de réglage de seuils. Le développement de cet algorithme fera
l’objet du chapitre 2, où un algorithme développé dans un travail précédent [Kha00], [Fal01d] a
été modifié pour en améliorer les performances. Le réglage automatique des seuils ainsi que le
choix du modèle de signal et de la méthode d’estimation seront traités au chapitre 3.

Classification et rejet

Après segmentation des signaux SEMG, il est nécessaire de classer les segments obtenus en
fonction de leur origine, pour ne conserver que les segments toniques dont le rapport signal sur
bruit est suffisant pour en extraire des caractéristiques spectrales qui aient un sens.
Cette étape de classification doit se décomposer en deux phases :
- élimination des segments pour lesquels le niveau de bruit interdit toute exploitation
ultérieure. Cette classification sera fondée sur la concordance des spectres des segments
22 Position du problème

obtenus dans la phase de segmentation avec des modèles analytiques de spectres d’EMG,
l’un tiré de la littérature, l’autre proposé dans le cadre de ce travail.
- sélection des activités toniques. Cette sélection utilisera essentiellement les différences
d’énergie entre segments voisins pour ne retenir que les segments de plus faible énergie
conservés dans la phase précédente.
L’ensemble de la démarche de classification sera décrite dans le chapitre 4. Ce dernier inclura
également une proposition de traitement permettant d’éliminer une partie du bruit contenu dans
les enregistrements restants, avant extraction des paramètres susceptibles de porter une
information sur la fatigue musculaire.
Les résultats sur les signaux réels seront présentés et discutés dans le chapitre 5, avant une
conclusion générale sur les aspects et les limites des méthodes développées pour le traitement de
ce type de signaux longs à faible rapport signal sur bruit.

1-6 Conclusion

Ce chapitre constitue une introduction à la physiologie des signaux SEMG, et à l’utilisation de


ces signaux en ergonomie et dans l’étude de la fatigue musculaire. Il montre bien l’intérêt
potentiel de ces signaux pour l’étude de l’inconfort durant une conduite de longue durée. Une
description de l’expérience et des signaux a aussi été donnée dans ce chapitre pour bien
comprendre les conditions et les hypothèses de notre travail. Les signaux SEMG acquis sont des
signaux SEMG de longue durée, et les segments intéressants de ces signaux sont uniquement les
activités toniques des muscles posturaux. Un algorithme de segmentation est donc indispensable
pour distinguer les différents types de segments rencontrés dans les signaux, cet algorithme
devant être rapide et automatique dans le sens où il faut définir automatiquement tous ses
paramètres de réglage. L’algorithme de segmentation doit être suivi par des méthodes de
classification et de rejet permettant de ne conserver que les segments d’activité tonique. Après
segmentation et classification, il reste à estimer les paramètres à utiliser pour surveiller
l'évolution des caractéristiques de l'EMG au cours des tests.
Le chapitre suivant va donc traiter du problème de détection et de segmentation des signaux sous
les hypothèses indiquées précédemment.
Algorithmes de Détection de changements 23

Chapitre 2
Algorithmes de Détection de
changements

2-1 Introduction

Le problème de la détection des changements et des non stationnarités est un problème très
fréquemment abordé en traitement du signal. En fait la décomposition d'un signal non
stationnaire en segments stationnaires, lorsqu’ils existent, constitue une première phase dans bon
nombre d’analyses de signaux. Parmi les domaines où les chercheurs ont développé des
algorithmes de segmentation, on peut citer le domaine de traitement de parole, le traitement des
signaux sismiques et des signaux biomédicaux [Obr88a], [Obr88b], [Bas93], [Kha99a], [Kha01].
Les algorithmes de détection sont essentiellement fondés sur la théorie statistique des tests
d'hypothèses. Parmi ces algorithmes, nous nous sommes intéressés aux algorithmes séquentiels
car ces algorithmes nous permettent de bien localiser les instants de changement. Citons par
exemple l'algorithme de somme cumulée (CUSUM) qui est l'un des algorithmes séquentiels de
détection les plus efficaces dans le cas où les paramètres sont connus [Bas93].
En pratique, les paramètres des hypothèses ne sont pas connus et beaucoup d’algorithmes ont été
développés pour résoudre ce type de problème [Bas93]. Dans ce chapitre nous présentons une
bibliographie détaillée sur les principes de ces algorithmes, leurs avantages et leurs
inconvénients, ainsi que les raisons qui nous conduisent à proposer des algorithmes locaux de
traitement. Nous expliquons ensuite l'algorithme de somme cumulée dynamique (DCS), et ses
modifications. Dans notre cas de traitement des signaux biomédicaux, où il est intéressant de
détecter les changements spectraux, l'algorithme DCS proposait une méthode originale fondée
sur la décomposition en ondelettes. Dans notre nouvel algorithme, nous utiliserons une autre
approche, la modélisation autorégressive, pour la détection des changements spectraux
[Kha99b].
L'algorithme général de segmentation est présenté en fin de chapitre 3.
24 Algorithmes de Détection de changements

2-2 Méthodes de détection des ruptures dans le cas d'un changement


à paramètres connus

2-2-1 Formulation mathématique élémentaire

Le problème de détection consiste à détecter une rupture dans un signal observé x et à estimer
l'instant k de son apparition. Ce problème se ramène à un test d'hypothèse. Dans le cas où le
changement intervient sur les paramètres, le problème s'appelle problème de test d'hypothèse
paramétrique. En effet, si nous disposons d'une suite d'observations x1 , x2 , …, xn qui jusqu'à
l'instant k suit une loi de probabilité fθ 0 (de paramètre θ 0 ) et ensuite est régi par une densité de

probabilité f θ1 (de paramètre θ1 ), pour détecter une éventuelle rupture dans le paramètre θ , nous

pourrons procéder, à chaque instant, au test d'hypothèse suivant:


H 0 : θ = θ 0 , pour 1 ≤ i ≤ n

contre (2.1)
θ = θ 0 , pour 1 ≤ i ≤ k
H1 : 
θ = θ 1, pour k + 1 ≤ i ≤ n
La plupart des méthodes de détection sont fondées sur la somme de logarithmes de rapports de
vraisemblance, qui a été démontrée comme une statistique suffisante dans la théorie de la
détection [Bor87], [Sap90], [Bas93]. Le logarithme du rapport de vraisemblance est défini par :
j
f θ1 ( xi / xi−1,..., x1 )
S ( x1, x2 ,..., x j ) = ∑ ln (2.2)
i =1 fθ 0 ( xi / xi −1 ,..., x1 )

On va présenter ici deux algorithmes pour résoudre ce problème de détection : l'algorithme de


Neyman- Pearson et l'algorithme de somme cumulée.

2-2-2 Algorithme de Neyman - Pearson

Dans cet algorithme on considère un échantillon de taille N. On prend alors la somme des
logarithmes du rapport de vraisemblance comme:
j. N
S1N ( j ) = ∑ si (2.3)
i = ( j −1 ). N +1

avec
Algorithmes de Détection de changements 25

f θ1 ( xi / xi−1 ,..., x1 )
si = ln (2.4)
fθ 0 ( xi / xi−1,..., x1 )

La règle de décision est la suivante:

0 si S1N ( j ) < h


dj =  (2.5)
1 si S1N ( j ) ≥ h

L’instant d’arrêt est :


ta = N.min{j ≥ 1 :dj = 1} (2.6)
Ces algorithmes de détection sont caractérisés en général par deux paramètres :
- La probabilité de fausse alarme
- La probabilité de détection
Il a été démontré que cet algorithme est optimal dans le sens qu’il maximise la probabilité de
détection pour une probabilité de fausse alarme donnée (optimalité au sens de Neyman-Pearson)
[Bas93].
L’inconvénient de ce type d’algorithme est que l’instant de changement est défini à N près.

2-2-3 Algorithme de somme cumulée CUSUM

2-2-3-1 Formulation

La somme cumulée est fondée sur le calcul récursif du logarithme du rapport de vraisemblance.
La procédure CUSUM peut être considérée comme une séquence de tests répétés autour d'un
point de changement k.
L’algorithme CUSUM intuitif se présente comme suit [Nik86], [Bas93]:
- à un instant j on cherche la somme des logarithmes des rapports de vraisemblance :

j j
fθ1 ( xi / xi −1 ,..., x1 )
S1j = ∑ si =∑ ln (2.7)
i =1 i =1 f θ 0 ( xi / xi−1,..., x1 )

La somme S1j fournit un test séquentiel de logarithme du rapport de vraisemblance. L’intérêt de


cette somme est qu’elle change de signe en moyenne après l’instant de rupture, c.à.d. :
EH 0 ( si ) < 0
(2.8)
EH1 ( si ) > 0

- On calcule alors la fonction de détection suivante:


26 Algorithmes de Détection de changements

g j = S1j − min S1i (2.9)


1≤ i ≤ j

Au vu de la propriété précédente de la somme cumulée, la fonction de détection est construite en


faisant la comparaison à chaque instant j de la différence ent re la valeur de la somme du
logarithme de vraisemblance et sa valeur minimale courante.
- L’instant d’arrêt est :
ta = min {j : gj ≥ h} (2.10)
h est le seuil de détection, c.à.d. qu’une rupture est détectée lorsque la fonction de détection
atteint un seuil fixé h.

FIG. 2.1 a) Signal b) Evolution de la somme cumulée c) Evolution de la fonction de détection.


Axes des abscisses : nombre de points. Axes des ordonnées : unités arbitraires.

- L’instant de changement est défini alors par :


k = max {j : gj =0} (2.11)
On peut formuler aussi l’algorithme CUSUM par une autre forme plus pratique [Bas93]:
- g0 = z ≥ 0 (z = 0 usuellement)
- gj = max(0,gj-1 +sj) (2.12)
- ta = min {j : gj ≥ h}
Il faut noter que cette formulation de CUSUM est plus efficace en temps de calcul que la
première. De plus elle est plus efficace en espace mémoire (en effet on n’a besoin de mémoriser
que gj-1 et gj au lieu de toutes les valeurs de S1 j dans la première version).
Algorithmes de Détection de changements 27

2-2-3-2 CUSUM en cas de changement de variance

On suppose que les échantillons successifs sont indépendants, suivent une loi gaussienne de
moyenne nulle, et présentent des changements en variance uniquement. Dans ce cas θ 0 = σ 0 et
θ1 = σ 1 . Les densités de probabilité peuvent s'écrire:

x2i
− 2
1
f θ 0 ( xi ) = e 2σ 0 (2.13)
2π σ 0
x2i
− 2
1
f θ1 ( xi ) = e 2σ1 (2.14)
2π σ 1
L'expression du logarithme de vraisemblance est alors:

1 σ2 1 1
si = [ ln 12 + xi2 ( 2 − 2 )] (2.15)
2 σ0 σ 0 σ1

2-2-3-3 CUSUM en cas de changement dans un modèle ARMA ou AR

Dans le cas pratique (en particulier dans le cas des signaux biomédicaux) les échantillons sont
dépendants, l'expression de la somme du logarithme de vraisemblance est alors :
j
f θ1 ( xi / xi−1,..., x1 )
S ( x1, x2 ,..., x j ) = ∑ ln (2.16)
i =1 fθ 0 ( xi / xi −1 ,..., x1)

où f θ0 ( xi / xi−1,..., x1 ) et f θ1 ( xi / xi−1,..., x1 ) sont les densités de probabilité conditionnelle.

Dans la plupart des cas on peut modéliser les signaux par des modèles paramétriques comme le
modèle ARMA ou le modèle AR.
Dans le cas d’un signal modélisé par un modèle ARMA (p, q), on peut écrire que :
p q
xi = − ∑ an . xi −n + ∑ bnε i −n + ε i (2.17)
n =1 n =1

Si une variation dans le signal se manifeste par une variation dans l’un au moins des paramètres
du modèle ARMA, on a alors :
θ 0 = ( a10 ,..., a 0p , b10 ,..., bq0 , σ 02 )

(2.18)
θ1 = ( a11,..., a1p , b11 ,..., b1q , σ 12 )

La probabilité conditionnelle s’écrit alors [Bas93]:


28 Algorithmes de Détection de changements

ε2
1 − i2
pθ ( xi / xi−1,..., x1 ) = e 2σ (2.19)
σ 2π
Le logarithme du rapport de vraisemblance est alors:

1 σ 2 ( ε 0 ) 2 (ε 1 ) 2
si = [ ln 02 + i 2 − i 2 ] (2.20)
2 σ1 σ0 σ1
avec

ε il = xi + ∑ an xi− n − ∑ bnε il− n , l = {0,1}


p q
(2.21)
n =1 n =1

Dans le cas où q=0, le modèle s’appelle un modèle autorégressif AR d’ordre p, et alors :


θ 0 = ( a10 ,..., a 0p , σ 02 )

θ1 = (a11,..., a1p , σ12 ) (2.22)

ε il = xi + ∑ an xi− n , l = {0,1}
p

n =1

2-2-3-4 Propriété de détectabilité de CUSUM

La détectabilité représente la capacité d’un algorithme à détecter un changement. De ce point de


vue un changement est détectable si la fonction de détection n’est pas la même avant et après le
changement. Dans le cas des algorithmes fondés sur le logarithme du rapport de vraisemblance la
propriété de détectabilité se manifeste par un changement de signe de ce logarithme.
Au vu de cette définition, une des propriétés les plus importantes de l’algorithme de somme
cumulée est justement la propriété de détectabilité. D’après [Bas93] la détectabilité de la somme
cumulée est due au fait que :

Eθ 0 [ si ] < 0

(2.23)
Eθ1 [ si ] > 0

Cette propriété est très importante, et elle doit être vérifiée aussi dans le cas des algorithmes de
détection où les paramètres sont inconnus.
Algorithmes de Détection de changements 29

2-2-3-5 Propriétés asymptotiques de CUSUM

La performance des algorithmes de détection séquentielle est caractérisée par deux paramètres
qui sont :
- le temps moyen de détection
- le temps moyen entre deux fausses alarmes
Il a été démontré que l’algorithme CUSUM est optimal dans le sens qu’il minimise le temps
moyen de la détection, lorsque le temps moyen entre deux fausses alarmes tend vers l’infini
[Bas93], [Bar00].
Il existe des formules asymptotiques qui permettent le choix du seuil dans le cas des algorithmes
CUSUM, mais dans le cas réel on montrera au chapitre 3 que ces formules sont délicates à
utiliser pour le choix du seuil, en particulier au vu de leurs propriétés uniquement asymptotiques.
Nous avons développé dans ce travail une méthode de choix automatique des seuils, fondée sur
les caractéristiques des signaux. Cette méthode sera présentée dans le chapitre 3.

2-3 Méthodes de détection des ruptures dans le cas d’hypothèses à


paramètres inconnus

Le cas le plus fréquent de détection de changement est le cas où les paramètres de changement
sont inconnus. Plusieurs algorithmes ont été développés pour résoudre ce problème, dans de
nombreux domaines d’application. Dans les paragraphes suivants nous présentons quelques
algorithmes, leurs avantages et leurs inconvénients, nous présentons ensuite notre algorithme de
somme cumulée dynamique et sa version modifiée permettant d’améliorer la performance de
détection et de résoudre le problème de sur-segmentation.

2-3-1 Méthode du rapport de vraisemblance généralisé

Cette méthode utilise le principe de maximum de vraisemblance. La somme des logarithmes des
rapports de vraisemblance entre deux instants n et j est donnée par :
j j
fθ1 ( xi / xi −1 ,..., x1 )
S = ∑ s( xi / xi−1,..., x1 ) = ∑ ln
n
j
(2.24)
i= n i= n f θ 0 ( xi / xi−1,..., x1 )

L’instant de changement est estimé par k au sens du maximum de vraisemblance :


30 Algorithmes de Détection de changements

k = arg max S nj (2.25)


1≤ n ≤ j

Si les paramètres θ 0 et θ1 sont inconnus ils sont remplacés par leurs estimations au sens du
maximum de vraisemblance, ce qui conduit finalement à la fonction de décision suivante :
H1
g j = max sup sup S n ≥ h
j
(2.26)
1 ≤n ≤ j θ1 θ0

Lorsque gj dépasse un seuil h fixé a priori, alors H1 doit être décidée, H0 dans le cas contraire.
Les maximisations dans la fonction de décision précédente sont compliquées et coûteuses en
temps de calcul. Elles sont contradictoires avec la volonté de développement de méthodes
capables de détecter séquentiellement d’éventuels changements. Brandt [Bra83] a alors proposé
une simplification de la méthode précédente.

2-3-2 Méthode de Brandt

L’algorithme de Brandt est un moyen simplifié pour l’implantation de l’algorithme de maximum


de vraisemblance. L’algorithme de Brandt est développé pour des signaux modélisés par des
modèles AR et donc permet la détection des changements spectraux.
La méthode est fondée sur l’utilisation d’une distance entre les lois de probabilité conditionnelles
avant et après la rupture, directement issue de l’écriture du rapport de vraisemblance généralisée
entre les hypothèses H0 et H1 . Les modèles comparés sont alors identifiés sur trois fenêtres:
fenêtre test, fenêtre croissante et fenêtre globale (figure 2.2).

FIG. 2.2 – Interprétation de la méthode de Brandt pour la détection. Cette figure montre les
fenêtres croissante, globale et test.
Algorithmes de Détection de changements 31

Si on suppose que θ l , l = {0,1} , sont des scalaires qui représentent les variances des erreurs de
prédiction, ce test conduit à la fonction de décision suivante:
^2
(θ 0 /0 ) j H1
g j = ln ≥h (2.27)
^2 ^2
j− N
(θ 1/1 ) (θ 0/1 )
N

N longueur de la fenêtre test.


^2 ^2
θ 0/ 0 est l’estimée de la variance θ 02 sous H0 (fenêtre globale), θ 0 /1 est l’estimée de la variance
^2
θ 02 sous H1 (fenêtre croissante) et θ 1/1 est l’estimée de la variance θ12 sous H1 (fenêtre test).

Si cette méthode permet d’éviter la maximisation en n, elle ne donne pas en revanche une
solution très satisfaisante du véritable instant de changement. L’optimisation de l’estimation de k
doit être réalisée à l’intérieur de la fenêtre test. En effet si la détection a lieu à un instant j (fin de
la fenêtre test), il est légitime d’émettre l’hypothèse que le véritable instant de changement se
situe à l’intérieur de la fenêtre test [j-N+1, j]. Donc ce test de Brandt consiste à détecter la
présence ou l’absence d’une rupture dans la fenêtre d’analyse, et nécessite ensuite d’affiner
l’estimation de l’instant de changement lorsqu’une rupture est détectée.

2-3-3 Quelques autres méthodes développées pour le cas du changement


spectral

Nous allons présenter dans ce paragraphe quelques autres algorithmes de détection de


changement spectral et surtout les algorithmes développés dans le cas des signaux modélisés par
un modèle AR [Bas92],[Bas93].

2-3-3-1 Méthodes fondées sur l’erreur de prédiction d’un modèle (Blancheur d’innovation)

Dans cette méthode on identifie un modèle AR au début du signal (dans une première fenêtre
d'estimation), puis on filtre les échantillons successifs en calculant l’erreur de prédiction
(innovation). Ensuite on calcule une somme cumulée sur le carré des erreurs de prédiction pour
détecter le changement.
On suppose que le signal suit la densité de probabilité conditionnelle f θ0 ( xi / xi−1,..., x1 ) avant

changement et f θ1 ( xi / xi−1,..., x1 ) après le changement. On considère la statistique suivante:


32 Algorithmes de Détection de changements

j
S j = ∑ si (2.28)
i =1

avec

si = ∫ fθ 0 ( x / X 1i−1 ) ln[ fθ 0 ( x / X 1i−1 )]dx − ln[ f θ0 ( xi / X 1i −1 )] (2.29)

Dans notre cas d’un modèle AR d’ordre p, on démontre [Bas83a] que :

1 ε i2
si = ( − 1) (2.30)
2 σ 02
et alors :

1 j ε i2
Sj = ∑( − 1) (2.31)
2 i =1 σ 02
La règle de décision est :
g j = S j − min S i ≥ h (2.32)
1≤i ≤ j

Il a été vu dans [Bas83a], [Bas93] que ce type d’algorithme présente quelques limitations pour
les raisons suivantes :
- L’identification du premier modèle AR ne se fait qu’au début du signal. On ne tient pas
compte de tous les échantillons disponibles pour identifier le modèle
- Cet algorithme n’a plus la propriété de détectabilité. En effet il a été démontré dans [Bas83]
que la moyenne de si est nulle sous l’hypothèse H0 et qu’elle n’est positive sous l’hypothèse
H1 que si σ 1 ≥ σ 0 . L’algorithme n’est donc pas capable de détecter les changements où il y a
une décroissance dans la variance d’innovation des deux modèles AR.
Les algorithmes qui consistent donc à identifier un seul modèle AR présentent des limitations. Il
est préférable d’utiliser des algorithmes qui consistent à identifier deux modèles AR à chaque
instant, comme les algorithmes qui vont être présentés dans la suite.

2-3-3-2 Test de Divergence de Hinkley

La distance entre les lois de probabilité avant et après la rupture utilisée dans la méthode de
Divergence consiste à corriger à chaque instant l’incrément du rapport de vraisemblance de
l’algorithme CUSUM par son espérance mathématique sous la loi de probabilité conditionnelle
avant la rupture. La statistique est donc :
f θ1 ( xi / X 1i −1 ) fθ1 ( x / X1i −1 )
si = ln − ∫ fθ 0 ( x / X 1i−1) ln dx (2.33)
fθ 0 ( xi / X 1i−1 ) fθ 0 ( x / X 1i−1 )
Algorithmes de Détection de changements 33

En supposant que le signal analysé soit décrit par une modélisation AR d’ordre p, et en utilisant
les modèles identifiés sur les fenêtres de la figure 2.3, cette statistique s’écrit analytiquement (cas
de lois gaussiennes):
^ 2 ^ 2
1 ε i0ε 1i σ 0 (ε i0 ) 2 σ0
si = [ 2 2 − (1 + 2 ) 2
− ( 2 − 1)] (2.34)
2 ^ ^ ^ ^
σ1 σ1 σ 0 σ1

• ε i0 est l’erreur de prédiction courante sous H0 (fenêtre de référence)
^ 2
• σ 0 est l’estimation courante de σ 02 obtenue sous H0 (fenêtre de référence)

• ε 1i est l’erreur de prédiction courante sous H1 (fenêtre test)


^ 2
• σ 1 est l’estimation courante de σ 12 obtenue sous H1 (fenêtre test)

FIG. 2.3 – Définition des fenêtres d’estimation dans l’algorithme de Hinkley. Fenêtre [1..j] :
fenêtre de référence. Fenêtre [j-N+1..j] : fenêtre test.

Il a été démontré dans [Bas83b] que cette statistique a une moyenne nulle sous l’hypothèse H0 et
positive sous l’hypothèse H1 .
D’après [Bas83b], [Voz94] et pour bien estimer ’l instant de changement, on ajoute à chaque
instant à la statistique précédente une dérive négative ν qui peut être interprétée comme
l’amplitude minimale du saut que nous désirons détecter, ce qui donne une nouvelle statistique :
34 Algorithmes de Détection de changements

~
si = si −ν (2.35)
Pour les échantillons jusqu’à l’instant j, la statistique est :
~ j ~
S j = ∑ si (2.36)
i =1

La fonction de détection est alors :


~ ~ H1
g j = S j − min S i ≥ h (2.37)
1≤ i ≤ j

La constante ν doit être choisie de sorte que :


~
Eθ1 ( si ) > 0
~
(2.38)
Eθ0 ( si ) < 0

Il a été montré dans [Bas83b], [Bas93] que ces algorithmes utilisant l’estimation de deux
modèles AR sont beaucoup plus performants que les autres algorithmes.
On note en particulier pour cet algorithme qu’il est utilisé dans le traitement de parole [Obr97],
[Obr88a], [Obr88b], et qu’il y a deux paramètres à régler qui sont le seuil h et l’amplitude
minimale ν .

2-3-4 Somme Cumulée Dynamique (DCS)

2-3-4-1 Principe

Soit X = X j = ( x1 ,..., x j ) le vecteur d’observation à l’instant j. Supposons que la distribution du

processus X dépende d’un paramètre θ . Un changement peut affecter la variance, la distribution


fréquentielle du signal ou les deux en même temps. La méthode de somme cumulée dynamique
est une méthode construite pour la détection des changements dans des signaux dans le cas où les
paramètres de segmentation sont inconnus, et lorsqu’on veut suivre des changements locaux dans
les signaux.
Cette approche de détection, appelée la Somme Cumulée Dynamique (DCS : Dynamic
Cumulative Sum), peut être considérée comme une séquence répétée autour du point de
changement k. Elle est fondée sur la somme cumulée locale des rapports de vraisemblance entre
deux hypothèses locales estimées autour de l’instant courant j. Ces deux hypothèses dynamiques
Algorithmes de Détection de changements 35

H aj (« after j ») et H bj (« before j ») sont estimées en utilisant deux fenêtres de longueur N


(figure 2.4) avant et après l’instant j comme suit :
H bj : xi ; i = { j − N ,..., j −1} suit une loi de probabilité de densité f θ0 (xi )

H aj : xi ; i = { j + 1,..., j + N} suit une loi de probabilité de densité f θ1 (xi )

FIG. 2.4 – (a) Exemple de signal contenant un seul point de changement k. (b) Evolution de la
somme cumulée dynamique autour du point de changement. Axes des abscisses : nombre de
points. Axes des ordonnées : unités arbitraires

^ j
Les paramètres de l’hypothèse H bj , θ b sont estimés à partir de N points avant l’instant j et les
^ j
paramètres de l’hypothèse H , θ a sont estimés à partir de N points après l’instant j.
a
j

A l’instant j, nous définissons DCS comme la somme des logarithmes des rapports de
vraisemblance à partir du début du signal jusqu’à l’instant j :

j f i^ ( xi ) j ^
DCS ( H aj , H bj ) = ∑ ln =∑ s i
θa
i
(2.39)
i =1 f ^ ( xi ) i =1
θb

^
f i^ ( xi )
θa
s i = ln i
, le logarithme du rapport de vraisemblance a un caractère local dans la mesure où
f ^ ( xi )
θb

les paramètres des deux hypothèses sont ré-estimés à chaque pas dans les deux fenêtres de N
points autour du point courant j.
36 Algorithmes de Détection de changements

Il est été démontré dans [Kha99b] que la fonction DCS arrive à son maximum au temps de
changement k. Un exemple de l’évolution de DCS est présenté sur la figure 2.4.
La fonction de détection utilisée pour estimer l’instant de changement est exprimée par:
[ ( )]
g j = max DCS H ai , H bi − DCS H aj , H bj
1 ≤i ≤ j
( ) (2.40)

L’instant d’arrêt est:


t a = inf {j : gj ≥ h} (2.41)
h étant un seuil fixe.
Le vrai instant de changement est estimé par :
k = sup {j>1 : gj = 0} (2.42)
La formulation précédente est une formulation générale de DCS. Dans la suite nous allons
^
exprimer s i dans le cas de signaux modélisés par un modèle AR.

2-3-4-2 DCS en cas de changement d’un modèle AR

Dans le cas de signaux modélisés par un modèle AR d’ordre p, l’expression des densités de
probabilité conditionnelles sont :
( ε ib )2

f θ0 (xi / xi−1,..., xi− p ) est estimée par f ^ ε = ( )


^ i
i 1 2 (σ b )2
b e (2.43)
^i
θbj
2π σ b
(avant l’instant courant j)
(ε ai )2

f θ1 (xi / xi−1,..., xi− p ) est estimée par f ^ ε ( )=


^i
i 1 2 (σ a ) 2
a e (2.44)
^ i
θ aj
2π σ a
(après l’instant courant j)
b
p ^  ^i 
2

avec ε = xi +
i
b ∑ ka xi− k , σb 
  l’estimée de la variance σ 02 du premier modèle AR, et
k =1  

a
p ^  ^i 
2

ε ai = xi + ∑ a k xi− k , σ a




l’estimée de la variance σ 12 du second modèle AR.
k =1

L’expression de la somme des logarithmes des rapports de vraisemblance est donc :


^i
1 (σ a ) 2 (ε ai ) 2 (ε bi ) 2
j ^ j
DCS ( H , H ) = ∑ s i =∑ [ln ^ i + ^ i − ^ i ]
a
j
b
j
(2.45)
i =1 i =1 2
(σ b ) 2 (σ a ) 2 (σ b ) 2
Algorithmes de Détection de changements 37

Lorsqu’on applique DCS dans le cas d’un modèle AR, il est utile de définir une troisième fenêtre
qui est utilisée pour calculer les innovations (erreurs de prédiction) [Fal00].
Donc les fenêtres autour de l’instant courant i sont:
Wbj : j − N − p + 1... j − p
 j
W p : j − p + 1... j
 j
Wa : j + 1... j + N

La figure 2.5 montre ces trois fenêtres, autour de l’instant j.

FIG. 2.5- Définition des fenêtres pour DCS dans le cas de signaux modélisés par un modèle AR.
Axe des abscisses : nombre de points. Axe des ordonnées : unité arbitraire.

L’utilisation de cette troisième fenêtre est importante, car si on applique l’algorithme sans cette
fenêtre comme dans le cas de changement de variance on risque d’augmenter le taux de non
détection. En effet les mêmes données sont utilisées pour estimer les paramètres AR de la fenêtre
« before » et pour calculer l’innovation. L’hypothèse Hb sera alors privilégiée par rapport à Ha.
L’introduction de cette troisième fenêtre corrige ce défaut.
La méthode DCS a démontré son efficacité lorsqu’elle est appliquée sur les signaux EMG utérins
[Kha00], et également sur les signaux musculaires posturaux [Fal01b] [Fal02]. Cette méthode
présente cependant quelques limitations qui vont être soulignées dans le paragraphe suivant et
qu'il sera nécessaire de lever en développant une version modifiée de l'algorithme.

2-3-4-3 Limitations de la méthode DCS

DCS présente quelques limitations liées à son utilisation dans des configurations spécifiques:
- comme les fenêtres sont utilisées pour estimer localement les paramètres d'hypothèse avant et
après le temps courant j, le choix de la largeur de fenêtre a une grande influence sur le
procédé de détection
38 Algorithmes de Détection de changements

- la propriété de détectabilité n'est plus préservée dans l'algorithme DCS, et la détection


échoue quand les deux hypothèses sont très proches (Figure 2.6). En fait la fonction de
détection se stabilise après N points au delà du temps de changement sans atteindre le seuil.
Pour détecter de tels changements on est alors obligé de choisir des petites valeurs de seuil,
même si l'hypothèse H1 après changement dure assez longtemps (car la fonction g se
stabilise) ce qui augmente le taux de fausses alarmes. Il est alors légitime de chercher à
corriger l’algorithme pour s’assurer de la croissance de la fonction de détection sous
l’hypothèse H1 .

FIG. 2.6- Illustration d’un changement non détecté par DCS. Axes des abscisses : nombre de
points. Axes des ordonnées : unités arbitraires

2-3-5 Somme Cumulée Dynamique Modifiée (MDCS)

2-3-5-1 Principe
Algorithmes de Détection de changements 39

Les limitations de la méthode DCS nous conduisent à définir un nouvel algorithme qui pallie
ces difficultés. L’algorithme est modifié de deux façons: d’une part il faut modifier la taille
des fenêtres afin d’assurer la détectabilité de l’algorithme, d’autre part il faut minimiser les
erreurs d’estimation en utilisant une technique de seuillage différente. Pour cela nous
introduisons une méthode de double seuil.

a) Changement de la taille de la première fenêtre

Comme précédemment l’algorithme est fondé sur deux fenêtres glissantes Wb j et Waj pour
^ j ^ j
estimer les deux paramètres θ b et θ a à chaque instant j. Comme dans DCS, Waj est de taille

constante N, mais Wb j va maintenant utiliser tous les échantillons de 1 jusqu’à j -1. Le

premier instant est supposé être l’instant de changement précédent.

Les deux fenêtres sont définies comme suit :

 ^ j

W b
j
: 1 ..... j − 1 → θ b
 ^
W j
: j + 1 ..... j + N → θ j
 a a

FIG. 2.7- Illustration des fenêtres d’estimation dans MDCS.


40 Algorithmes de Détection de changements

Nous verrons dans le paragraphe 2-3-5-2 que l’utilisation de ces nouvelles fenêtres, associée
à la méthode de double seuillage, nous permet de retrouver la propriété de détectabilité
perdue dans l’algorithme DCS.

Il est à noter que, dans le cas d’un modèle AR, il est nécessaire d’utiliser comme
précédemment une troisième fenêtre W pj pour calculer l’erreur de prédiction. Les fenêtres

sont dans ce cas définies comme suit :

W b
j
: 1 ..... j − p

W a
j
: j + 1 ..... j + N
W j
: j − p + 1 ..... j
 p

b) Double seuillage

L’un des problèmes de DCS est qu’entre l’instant de changement et l’instant d’arrêt, la
^ j
fenêtre Wb j pénètre dans l’hypothèse H1 , ce qui influe sur l’estimation de θ b . Pour résoudre
ce problème, l’idée consiste à utiliser deux seuils dans la fonction de détection:

- Le premier seuil est le seuil bas hL. Lorsque la fonction de détection atteint ce seuil on arrête
^ j
l’estimation de θ b , et ce tant que la fonction de détection reste au dessus du seuil hL.

- Le second seuil est le seuil haut hH, qui est le seuil de détection. Lorsque la fonction de
détection atteint ce seuil on arrête la détection, et on estime le vrai temps d’arrêt par la
formule (2.48), donnée ci après.

L’organigramme de l’algorithme est présenté sur la figure 2.8.


Algorithmes de Détection de changements 41

FIG. 2.8- Organigramme de l’algorithme MDCS – Cas général


42 Algorithmes de Détection de changements

L’expression de MDCS est :

j f ^i ( xi / xi−1,..., x1 ) j ^
MDCS ( H , H ) = ∑ ln =∑ s i
j j θa
a b i
(2.46)
i =1 f ^ ( xi / xi−1,..., x1 ) i =1
θb

La fonction de détection utilisée pour estimer le temps de changement est exprimée par:

[ ( )]
g ( j ) = max MDCS H ai , H bi − MDCS H aj , H bj
1≤i ≤ j
( ) (2.47)

L’instant d’arrêt est:


t a = inf {j :g(j) > hH} (2.48)
hH étant le seuil haut.
Le vrai instant de changement est estimé par :

k = sup {j : g(j) = 0} (2.49)


Dans le cas d’un modèle AR l’expression de MDCS devient:

^ i
j ^
(σ a ) 2 (ε ai ) 2 (ε bi ) 2
j
MDCS ( H , H ) = ∑ s i = ∑ [ln ^ i + ^ i − ^ i ]
j j 1
a b (2.50)
i =1 i =1 2
(σ b ) 2 (σ a ) 2 (σ b ) 2

^ i
• σ b : Estimation de l’écart type de l’innovation du modèle AR « before »

• ε bi : Erreur de prédiction à l’instant i calculée par les paramètres AR du modèle « before»

^ i
• σ a : Estimation de l’écart type de l’innovation du modèle AR « after »

• ε ai : Erreur de prédiction à l’instant i calculée par les paramètres AR du modèle « after »

2-3-5-2 Propriété de détectabilité du nouvel algorithme [Fal01d]


^
Sous l’hypothèse H0 , et lorsque j tend vers infini Eθ 0 [ s j ] est négatif. En effet lorsque j tend

^ j ^ j
vers l'infini, θ b → θ 0 , et θ a est un estimateur moins efficace de θ 0 , donc l’espérance
Algorithmes de Détection de changements 43

f ^j ( xi / xi−1,..., x1 )
θa
mathématique de ln j
est négative
f ( xi / xi−1 ,..., x1 )
θ0

^
f ^j ( xi / xi −1 ,..., x1)
θa
soit Eθ 0 [ s j ] = Eθ 0 [ ln j
]<0.
f ^ ( xi / xi−1 ,..., x1 )
θb

Sous l’hypothèse H1 et lorsque la fonction de détection atteint la valeur de seuil bas hL, on
^ j ^ j ^ ^ j
arrête l’estimation de θ b . On a donc un estimateur θ b = θ 0 . Pour l’estimation de θ a on a

^ j ^
f ^j ( xi / xi−1,..., x1 )
θ1
θ a = θ 1 . On a alors l’espérance mathématique de ln j
positive, car
f ^ ( xi / xi −1 ,..., x1 )
θ0

^ ^ ^
f ^i ( x j / x j −1 ,..., x1 )
θa
l’estimateur θ 1 estime mieux θ1 que θ 0 , soit Eθ1 [ s i ] = Eθ1 [ln i
]>0.
f ^ ( x j / x j −1 ,..., x1)
θb

Le figure 2.9 illustre cette propriété de détectabilité :

FIG. 2.9- Evolution de DCS et MDCS autour du point de changement (k=10000). (a) Signal
(b) Evolution de DCS (c) Evolution de MDCS. Axes des abscisses : nombre de points. Axes
des ordonnées : unités arbitraires
44 Algorithmes de Détection de changements

Dans cet exemple, un changement de variance de 1 à 2 est introduit dans le signal au point
10000. Le tracé (b)correspond à l’évolution de DCS, où aucun maximum n’est observé
autour du point de changement, alors que le tracé (c), correspondant à l’évolution de MDCS,
montre que la propriété de détectabilité est à nouveau vérifiée, permettant une détection de
changement au point 10000.

Cette propriété est très importante, car elle lève la première limitation de DCS, et elle garantit
que la fonction de détection augmente indéfiniment sous l’hypothèse H1 .

Comparaison entre DCS et MDCS

Les deux méthodes ont été testées en utilisant 1000 segments de bruit blanc, avec un
changement de variance de 1 à 2. La comparaison est effectuée à partir des courbes COR
obtenues pour chacune des méthodes.

FIG. 2.10- Comparaison entre DCS et MDCS par courbe COR sur des signaux simulés. Axe
des abscisses : Probabilité de fausse alarme. Axe des ordonnées : Probabilité de détection.

Cette comparaison (figure 2.10) démontre que pour une même probabilité de fausse alarme,
la probabilité de détection est bien supérieure pour MDCS que pour la méthode antérieure
DCS.
Algorithmes de Détection de changements 45

2-4 Conclusion

Dans ce chapitre nous avons présenté quelques algorithmes de segmentation et surtout les
algorithmes fondés sur la modélisation AR pour détecter les changements spectraux dans les
signaux. Nous avons présenté l’algorithme de somme cumulée dynamique qui a été
développé auparavant pour la segmentation des signaux EMG utérin, et nous avons mis en
œuvre un nouvel algorithme qui corrige les inconvénients de l’algorithme DCS.

Les premiers résultats sur segments simulés sont très encourageants, alors même que ni le
choix du modèle, ni la détermination des seuils sur la fonction de détection n’ont été encore
optimisés.

Le chapitre suivant revient sur le choix du modèle paramétrique le mieux adapté aux signaux
électromyographiques, ainsi que sur les méthodes d’estimation mises en œuvre. Il décrit
également une méthode originale et automatique de détermination des seuils fondée sur la
fonction de répartition de l’information de Kullback–Leibler. Des tests de performance
seront enfin appliqués sur la base de signaux synthétiques.
MDCS et choix des paramètres 47

Chapitre 3
MDCS et choix des paramètres

3-1 Introduction

Toute méthode de détection de type paramétrique nécessite une adaptation des paramètres en
fonction du signal. Dans ce chapitre nous discutons les choix des modèles pour la représentation
des signaux EMG (et leurs méthodes d’estimation), le choix de l’ordre du modèle et l’influence
de ce choix d’ordre sur la performance de l’algorithme de détection. Nous démontrons
également l’intérêt d’une formulation récursive pour l’estimation des modèles AR au vu du
temps de calcul important nécessaire pour le traitement des signaux EMG de longue durée.
Une des parties originales de ce chapitre est la méthode du choix automatique des seuils qui
permet de régler ces seuils en calculant la distribution de l’information de Kullback-Leibler dans
le signal. Nous verrons que cette information est liée directement au choix du seuil dans un
algorithme de type CUSUM (et donc utilisable également dans l’algorithme MDCS), et qu’il est
possible, connaissant la distribution de cette information, de calculer automatiquement les seuils.

3-2 Choix du modèle de représentation des signaux dans


l’algorithme de détection

La modélisation d’un signal EMG par un processus aléatoire est fréquemment utilisée par les
chercheurs [Inb84], [Duc93], [Mer99a]. Dans ce paragraphe nous allons comparer l’utilisation de
modèles AR et ARMA pour la modélisation des signaux aléatoires stationnaires réels du type
EMG.
48 MDCS et choix des paramètres

3-2-1 Le modèle ARMA

La modélisation d’un signal x(n) consiste à lui associer un filtre linéaire qui, soumis à un bruit
blanc gaussien de moyenne nulle et de variance σ ε2 , reproduit ce signal le plus fidèlement

possible [Boi00].

Les objectifs essentiels de la modélisation d’un signal sont:


- la description de son spectre par un ensemble très limité de paramètres [Kay88], [Mar87],
[Orf90].
- l’utilisation des paramètres pour détecter des non stationnarités dans un signal [Obr88b]
[Bas93], [Fal00], [Fal01a] , [Kha01].
- l’utilisation des paramètres pour les problèmes de classification [Bas89]

Le modèle le plus général d’un signal stationnaire correspond à le considérer comme un signal
B( z )
généré par un filtre H ( z ) = excité par un bruit blanc gaussien ε de moyenne nulle et de
A( z )

variance σ ε2 , avec :
q
B( z ) = ∑ bn .z − n
n =0

(3.1)
p
A( z ) = ∑ an .z − n ; a0 = 1
n= 0

L’équation aux différences relative à un tel filtre est la suivante :


p q
xi = − ∑ a n. xi− n + ∑ bn .ε i −n + ε i (3.2)
n =1 n =0

Le processus décrit par ce modèle s’appelle un processus ARMA (p, q).

Dans le cas où A(z)=1, alors :


q
xi = ∑ bn .ε i− n + ε i (3.3)
n= 0

et le processus s’appelle processus MA(q) (processus Moving Average d’ordre q).


Dans l’autre cas, où B(z)=1, alors :
p
xi = − ∑ a n. xi− n + ε i (3.4)
n =1

et le processus s’appelle processus AR(p) (processus autorégressif d’ordre p).


MDCS et choix des paramètres 49

Plusieurs méthodes existent dans la littérature pour le calcul des paramètres des différents
modèles [Kay88], [Mar87], [Orf90]. Le choix entre ces modèles dépend en pratique du processus
physique qui génère ce signal [Mar87]. Aussi ce choix dépend des applications pour lesquelles
on doit utiliser le modèle. Par exemple, dans le cas de la détection de non stationnarités, il n’est
pas nécessaire de choisir le modèle exact du processus (si tant est qu’il existe). On peut se
contenter d’un modèle proche s’il traduit bien les changements lorsqu’il est utilisé dans un
algorithme de détection. Dans le cas de la détection, il est possible de choisir des modèles (et des
méthodes associées d’extraction des paramètres) qui simplifient l’algorithme pour minimiser le
temps de calcul mais qui ne doivent pas être trop éloignés du processus réel pour que la détection
des changements s’effectue correctement. Ainsi un modèle bien adapté à l’estimation spectrale
n’est pas nécessairement le meilleur modèle pour résoudre le problème de segmentation (dans la
segmentation on peut choisir des modèles simplifiés [Bas93] afin de réduire les temps de calcul).
Dans le problème d’estimation spectrale, l’essentiel est de choisir un modèle à haute résolution
spectrale, alors que, dans le cas de la détection, le problème est de choisir un modèle qui reflète
bien les non stationnarités, et qui soit bien adapté à l’extraction de paramètres pour une
exploitation ultérieure des segments.
L’estimation des paramètres d’un modèle ARMA consiste tout d’abord à estimer les coefficients
AR de ce modèle, puis à en estimer la partie MA.
La partie AR du modèle ARMA est reliée au coefficient d’autocorrélation par l’équation
matricielle :

 Rxx (q ) Rxx ( q −1) ............Rxx ( q − p + 1)  a1   Rxx ( q + 1) 


    
 Rxx (q + 1) ................................Rxx (q − p + 2)  a 2   Rxx ( q + 2) 
.  .  . 
   = −  (3.5)
.  .  . 
    
.
.   . 
 R (q + p + 1) R ( q + p − 2) .....R (q )  a   R ( q + p) 
 xx xx xx   p  xx 

La résolution de ce système permet d’obtenir la partie AR d’un processus ARMA. On note que
ces équations s’appellent équations de Yule-Walker modifiées [Mar87]. Ces équations sont
évidemment des équations linéaires. De plus la matrice d’autocorrélation a une structure de
Toeplitz, ce qui permet de résoudre ces équations par des algorithmes plus efficaces que les
algorithmes classiques [Mar87].
Les équations qui relient les coefficients MA aux séquences d’autocorrélation sont :
50 MDCS et choix des paramètres

0 m>q
 p
Rxx ( m) = σ ε2 ∑ bn .bn− m 0≤m≤q (3.6)
 n =1
 Rxx (− m) m<0

Le caractère non linéaire de ce système d’équations rend sa résolution particulièrement


complexe. Ces modèles complets ARMA sont utilisés entre autres en reconnaissance de la parole
[Tur96] , et parfois dans le domaine de l’EMG [Cas99].
Cependant, pour l’analyse du signal EMG, il a été montré qu’il était équivalent de modéliser ce
signal par un modèle ARMA ou par un modèle AR d’ordre plus élevé. Compte tenu de la
complexité des méthodes de résolution et des contraintes de temps de calcul sur des signaux
longs, nous avons décidé d’approfondir les solutions à base de modélisation AR.

3-2-2 Modèle AR

3-2-2-1 Les méthodes d’estimation des paramètres AR

Dans ce paragraphe nous présentons de façon résumée les méthodes les plus connues
d’estimation des paramètres AR. L’estimation de ces paramètres est à la base de l’algorithme de
détection MDCS En l’absence de la connaissance du modèle vrai des signaux, le choix de la
méthode d’estimation influe sur l’algorithme de détection lui- même, ce qui nous conduit à en
faire une comparaison afin de choisir la plus pertinente vis à vis de la détection des changements
dans les signaux EMG.

a) Méthode de Yule-Walker

La méthode de Yule-Walker (dite aussi méthode d’autocorrélation) repose sur le remplacement


de la minimisation statistique de l’erreur de prédiction par une minimisation de cette erreur sur
l’ensemble des données x0 , …., xN-1 . Il s’agit donc de minimiser la somme :
N + p −1 2 N + p −1 p
∑ ε pf (n ) = ∑ ( x( n) + ∑ a k .x( n − k )) 2 (3.7)
n =0 n= 0 k =1

Ceci conduit à l’équation matricielle suivante [Kay83] :


MDCS et choix des paramètres 51

^ ^ ^

 R xx ( 0) R xx (1)........... R xx ( p) 1   σ^ ε 
2

^  ^  
 R xx (1) R xx ( 0) .... ...... R xx ( p − 1)  a1   0 
^ ^

  
 .   
.   =  .  (3.8)
.  . . 
^  ^   
 R xx ( p) R xx ( p −1).... R xx ( 0)  a   0 
^ ^
  p   
 
avec
^ 1 N −1−k
R xx (k ) = ∑ x (n ).x ( n + k ) ; k = 0,1,...p (3.9)
N n=0
La méthode consiste donc à remplacer la matrice de corrélation dans l’équation de Yule-Walker
normale par son estimateur biaisé [Kay83]. La matrice reste une matrice de Teoplitz définie
positive et l’algorithme de Levinson peut ainsi s’appliquer pour la résolution du système
d’équations linéaires. Une discussion sur l’efficacité de cette méthode sera proposée par la suite.

b) Méthode de Burg

L’idée de Burg [Kay83] fut de calculer directement à partir des données une estimée des
coefficients de réflexion et ce, sans passer par le calcul des covariances.
On peut calculer les coefficients de réflexion d’une façon récursive sur l’ordre, puis calculer les
paramètres AR par la relation de Levinson :
 K^ = −( p∑−1R^ ( p − i ). a^ (i )) / ρ^
 p i =0
p −1 p −1
^
a p ( 0) = 1
^
 ^ ^ ^
 a p ( n ) = a p −1 ( n ) + K p . a p −1 ( p − n); n = 2,..., p − 1 (3.10)
^ ^
a p ( n) = K p

^ ^ ^ 2
ρ
 p = ρ p −1 (1 − K p )

Dans l’algorithme de Burg on part de l’expression de l’erreur de prédiction « avant » au rang p :
^ f p ^
ε p (i ) = ∑ a p (n ).x (i − n) (3.11)
n =0

et de l’erreur de prédiction rétrograde :


^b p ^
ε p (i ) = ∑ a p ( p − n ).x (i − n) (3.12)
n= 0
52 MDCS et choix des paramètres

Pour trouver un estimateur de KP , Burg propose de minimiser, par rapport à KP , la somme des
1 ^f ^b
erreurs de prédiction avant et rétrograde ( ρ p + ρ p ) avec :
2

2
^ f 1 N −1 ^ f
ρp = . ∑ ε p ( n)
N − p n =p

(3.13)

2
^b 1 N −1− p ^ b
ρp = . ∑ ε p ( n)
N − p n=0

La minimisation de ce terme par rapport au coefficient de réflexion donne [Kay83], [Kun91]:

f ^b
N −1 ^
^ − 2 ∑ ε p −1 ( n). ε p−1( n)
n =p
KP = (3.14)
N −1 ^ f ^b
∑ (( ε p −1 ( n)) + (ε p−1 (n )) )
2 2
n= p

donc on peut calculer les coefficients de réflexion d’une manière récursive sur l’ordre. En même
temps on peut calculer les paramètres AR en utilisant (3.10) et en connaissant la relation :
^ f ^ f ^ ^b
ε p (n ) = ε p −1 ( n −1) + K p . ε p ( n − 1)
(3.15)
^b ^b ^ ^ f
ε p ( n) = ε p−1 (n − 1) + K p .ε p ( n − 1)

Une propriété de l’algorithme de Burg est de garantir que les estimées des coefficients de
réflexion sont de module inférieur à 1.
En résumé l’algorithme de Burg s’écrit d’une façon algorithmique comme suit :
MDCS et choix des paramètres 53

^
1 N −1
• R xx (0) = .∑ ( x( n)) 2
N n= 0
^ ^
• ρ 0 = R xx ( 0)
^ f
• ε 0 ( n) = x ( n), n = 1, 2,..., N − 1
^ b
ε 0 ( n) = x (n ), n = 1,2,..., N − 1
• Pour k = 1,..., p
N −1 ^ f ^b

^
− 2 ∑ ε k −1 (n ).ε k −1 ( n)
*Kk = N −1
n= k
^ f ^b
∑ ((ε k −1 (n )) + (ε k −1(n)) )
2 2

n =k
^ ^ ^
* ρ k = (1 − K k ). ρ k −1
2

^ ^ ^
^
a k −1 (i ) + K k . a k −1( k − i ), pour i = 1,2,..., k - 1
* a k (i ) =  ^
K k , pour i = k
^ f ^ f ^ ^b
* ε k (n ) = ε k −1 ( n −1) + K k . ε k ( n − 1) , pour n = k + 1, k + 2,..., N - 1 (3.16)
^ b ^b ^ ^ f
* ε k ( n) = ε k −1 (n − 1) + K k .ε k ( n − 1) , pour n = k , k + 1,..., N - 2

c) Méthode de Covariance

La méthode de Yule-Walker minimise l’erreur de prédiction sur l’ensemble des données x(n), ce
qui oblige à compléter la séquence par des zéros au début et à la fin des données.

Dans la méthode de covariance on fait la minimisation uniquement sur les données. Il faut donc
minimiser :

N + P −1 2 N + P −1 P
∑ ε Pf ( n) = ∑ ( x (n ) + ∑ ak .x (n − k )) 2 (3.17)
n =0 n =0 k =1

On arrive alors aux équations [Kay83] :


54 MDCS et choix des paramètres

^ 
 C xx (1,1) Cxx (1,2)...........Cxx (1, p )  a1   Cxx (1,0) 
  ^   
 C xx ( 2,1) Cxx ( 2,2)...........Cxx (2, p )  a2   Cxx ( 2,0) 
.   = − .  (3.18)
  .   
.  .  . 
  ^   
 C xx ( p,1) C xx ( p,2)...........Cxx ( p , p)    Cxx ( p,0) 
 ap 

et la variance de bruit d’entrée est :

^2 N −1 2 P ^
σ ε = min( ∑ ε Pf (n )) = Cxx (0,0) + ∑ a( k ).Cxx (0, k ) (3.19)
n =P k =1

avec

1 N −1
C xx ( j , k ) = ∑ x( n − j ).x (n − k ); 0 ≤ j ≤ p et 0 ≤ k ≤ p (3.20)
N − p n= p

On note que la matrice de covariance n’est pas de Toeplitz et que l’algorithme de Levinson ne
peut pas être utilisé pour la résolution du système linéaire. La matrice est par contre symétrique
définie positive, donc l’algorithme de Cholesky peut être utilisé pour la résolution du système
[Mar87].
On note aussi que le système calculé par la méthode de covariance ne garantit pas la stabilité
[Kay88]. Cependant cette instabilité partielle est rarement rencontrée en pratique [Kun91]. Il est
donc possible d’utiliser cet algorithme pour l’estimation des paramètres AR dans le problème de
détection posé dans le cadre de ce travail.

d) Méthode de Covariance modifiée

Cette méthode utilise la même démarche que précédemment mais en minimisant cette fois la
somme des erreurs de prédiction avant et arrière.
On minimise donc la somme :
N −1 N −1 − p
f2 b2
∑ ε p ( n) + ∑ ε p ( n) (3.21)
n= p n= 0

On arrive aux mêmes formes d’équations que pour la méthode de covariance mais avec :
1 N −1 N −1− p
C xx ( j , k ) = ( ∑ x( n − j ).x (n − k ) + ∑ x( n + i ). x( n + p)) (3.22)
2.( N − p) n= p n= 0
MDCS et choix des paramètres 55

3-2-2-2 Problè me de récursivité

L’estimation à chaque instant des paramètres AR pour les deux modèles « before » et «after »
dans la méthode MDCS rend inenvisageable l’utilisation de méthodes non récursives la
segmentation des signaux EMG de longue durée.
Il faut donc chercher à rendre récursives le plus possible les méthodes d’estimation AR, et ceci
pour les deux fenêtres « before » et « after ».
La différence entre les deux cas est que dans le premier la fenêtre s’accroît à chaque instant d’un
point, alors que la deuxième fenêtre est une fenêtre mobile de taille fixe N (à chaque pas un point
sort de la fenêtre et un autre y rentre).
Dans la littérature des algorithmes récursifs de type LMS et RLS [Mar87] sont décrits pour la
première fenêtre. Ces algorithmes sont cependant lourds à utiliser car leur principe repose sur
une méthode itérative pour laquelle se posent des problèmes de choix des conditions initiales et
des paramètres de convergence.
En général, pour les algorithmes d’estimation AR (dans les cas de Yule-Walker, de covariance et
de covariance modifiée), le temps de calcul le plus important concerne le calcul
d’autocorrélation ou de covariance, et non l’inversion de matrices d’autocorrélation ou de
covariance (car ce sont des matrices d’ordre p généralement faible). Il est donc utile de
rechercher la récursivité essentiellement pour les calculs d’autocorrélation et de covariance.

Pour l’algorithme de Burg, il est très difficile d’avoir une récursivité sur les échantillons (car le
principe même de l’algorithme utilise tous les échantillons disponibles).

Pour l’algorithme de Yule-Walker, on peut voir facilement que pour la fenêtre allant de 1 à j - p :
^ ( j) 1 j− p− k
R xx ( k ) = ∑ x (n ).x (n + k ) (3.23)
j − p n=1
alors :
^ ( j) ^ ( j −1)
( j − p ). R xx (k ) = ( j − p − 1). R xx ( k ) + x( j − p − k ). x( j − p ) (3.24)
et donc :
^ ( j) j − p − 1 ^ ( j−1) 1
R xx ( k ) = R xx (k ) + x( j − p − k ). x( j − p ) (3.25)
j− p j−p

Pour la deuxième fenêtre de j+1 à j+N :


56 MDCS et choix des paramètres

^ ( j)
1 j +N
R xx ( k ) = ∑ x (n ).x (n + k ) (3.26)
N n = j +1
donc à l’instant j+1 on a :

^ ( j +1)
1 j + N +1
R xx ( k ) = ∑ x( n). x( n + k ) =
N n = j +2
(3.27)
^ ( j)
1
R xx ( k ) + [ x( j + N + 1). x( j + N + 1 + k ) − x( j + 1).x ( j + 1 + k )]
N
On peut faire le même calcul pour les covariances dans les deux algorithmes de covariance et de
covariance modifiée.
On voit donc qu’il est aisé rendre récursifs (plus précisément semi-récursifs) les trois algorithmes
(Yule-Walker, covariance et covariance modifiée) d’estimation AR nécessaires à l’algorithme
MDCS, de façon à réduire notablement le temps de calcul.

3-2-2-3 Choix de la méthode d’estimation

Le choix de la méthode d’estimation est un point très important, lié à l’utilisation ultérieure des
paramètres estimés. La comparaison entre les méthodes va être faite ici sur la base des
performances obtenues par l’algorithme de détection associé aux modèles AR estimés. Les
résultats sont fo ndés sur une étude en simulation.
L’idée est de remplacer, dans l’algorithme CUSUM, les vraies valeurs des paramètres par les
estimations de ces paramètres obtenues selon les différentes méthodes, et de voir comment
évolue la fonction de détection de l’algorithme CUSUM. Les résultats obtenus seront
évidemment directement transposables à l’algorithme MDCS puisque la base de cet algorithme
repose sur l’algorithme CUSUM.
On verra (voir § 3-3-3) que l’espérance de si sous l’hypothèse H1 est telle que
Eθ1 [ si ] = K (θ 1 , θ 0 ) . Donc, après un temps τ , la fonction de détection g de l’algorithme CUSUM

1
est telle que .Eθ [ g (τ )] ≈ K (θ 1, θ 0 ) . La simulation consiste alors à générer les signaux suivant
τ 1
deux processus AR différents et à observer l’évolution de la fonction de détection d’une part
quand on utilise les vrais paramètres dans l’algorithme CUSUM, d’autre part lorsqu’on remplace
ces paramètres par leurs estimés suivant les différentes méthodes. On calculera également la
MDCS et choix des paramètres 57

moyenne de la fonction de détection sous l’hypothèse H1 pour voir dans quel cas elle fournit une
bonne approximation de la vraie valeur de l’information de Kullback- Leibler.

a) signaux de simulation

La simulation a consisté à générer 100 segments (50 pour le modèle AR0 , 50 pour le modèle
AR1 ). Chaque segment correspond aux 1000 derniers points d’un signal de 100000 échantillons
afin d’éviter les effets transitoires des filtres AR. Dans chaque cas on estime le modèle sur des
fenêtres de N=50, N=100, N=200 points.

- On a considéré d’abord deux modèles d’ordre 4 qui correspondent au cas de processus de


type « filtre large bande » :

 z1 = 0.2 × e 2.π . j .0.1 et z1* = 0.2 × e− 2.π . j. 0. 1


Le modèle 0 de pôles 
 z 2 = 0.2 × e 2.π . j. 0. 2 et z1* = 0.2 × e −2.π . j.0.2

et de variance 1

 z1 = 0.2 × e 2.π . j .0.1 et z1* = 0.2 × e− 2.π . j. 0. 1


Le modèle 1 de pôles 
 z 2 = 0.2 × e 2.π . j. 0. 3 et z1* = 0.2 × e −2.π . j.0.3

et de variance 25.
L’information de Kullback calculée par la formule (A.9) (voir Annexe A) entre ces deux
modèles est 11.1667 (en prenant un développement de Taylor jusqu’à l’ordre 8).

- On a ensuite considéré des modèles d’ordre 4 qui correspondent au cas de processus de type
« filtre bande étroite » :

 z1 = 0.9 × e 2.π . j .0.1 et z1* = 0.9 × e− 2.π . j. 0. 1


Le modèle 0 de pôles 
 z 2 = 0.9 × e 2.π . j. 0. 2 et z1* = 0.9 × e −2.π . j.0.2

et de variance 1

 z = 0.9 × e 2.π . j .0.1 et z1* = 0.9 × e− 2.π . j. 0. 1


Le modèle 1 de pôles  1
 z 2 = 0.9 × e 2.π . j. 0. 3 et z1* = 0.9 × e −2.π . j.0.3

et de variance 25.

L’information de Kullback entre ces deux modèles est 59.3304.


58 MDCS et choix des paramètres

b) Résultats pour une taille de fenêtre N=50, N=100, N=200


* Modèle « large bande » :

Vrais paramètres Yule-Walker Burg Covariance Covariance


modifiée
N=50 11.2247 12.6515 13.0474 13.0632 13.1663
N=100 11.2010 11.8735 12.0164 12.1250 12.0570
N=200 11.1675 12.0177 12.0897 12.1037 12.1081

TAB 3.1 – Valeur de l’information de Kullback moyenne atteinte par la fonction de détection
dans l’algorithme CUSUM en utilisant les vrais paramètres, puis les paramètres estimés par les
4 méthodes d’estimation pour N=50, 100, 200. Cas de filtre large bande

Vrais paramètres Yule-Walker Burg Covariance Covariance


modifiée

N=50

N=100

N=200

TAB 3.2 – Evaluation de la fonction de détection dans l’algorithme CUSUM en utilisant les
vrais paramètres, et les paramètres estimés par les 4 méthodes d’estimation pour N=50, 100,
200. (Le test est répété 50 fois)- Cas de filtrage large bande. Axes des abscisses : nombre de
points. Axes des ordonnées : valeur de la somme cumulée.
MDCS et choix des paramètres 59

* Modèle « bande étroite » :

Vrais paramètres Yule-Walker Burg Covariance Covariance


modifiée
N=50 59.4971 17.2959 66.3770 67.3656 67.2048
N=100 58.2348 25.2346 59.3955 59.7967 59.6822
N=200 60.7165 32.4117 62.2914 62.5464 62.4749

TAB 3.3 – Valeur de l’information de Kullback moyenne atteinte par la fonction de détection
dans l’algorithme CUSUM en utilisant les vrais paramètres, et les paramètres estimées par les 4
méthodes d’estimation pour N=50, 100, 200- Cas de filtrage bande étroite.

Vrais paramètres Yule-Walker Burg Covariance Covariance


modifiée

N=50

N=100

N=200

TAB 3.4 – Evaluation de la fonction de détection dans l’algorithme CUSUM en utilisant les
vrais paramètres, et les paramètres estimés par les 4 méthodes d’estimation pour N=50, 100,
200. (Le test est répété 50 fois) - Cas de filtrage bande étroite. Axes des abscisses : nombre de
points. Axes des ordonnées : valeur de la somme cumulée.
60 MDCS et choix des paramètres

On voit dans le cas du modèle « large bande » (tableau 3.1) que, lorsqu’on utilise les vrais
paramètres, alors la valeur de l’information de Kullback estimée à partir de la fonction de
détection est très proche de la valeur réelle. Il en est de même dans le cas d’utilisation des
valeurs estimées par les 4 méthodes et pour les différentes valeurs de N.
Sur les figures du tableau 3.2 les faisceaux des fonctions de détection sont évidemment plus
serrés dans le cas des vrais paramètres. De même, dans le cas des paramètres estimés, ces
courbes deviennent naturellement de plus en plus serrées lorsque N augmente.
Dans le cas du modèle «bande étroite » (tableau 3.3), on remarque que la valeur estimée de
l’information de Kullback est éloignée de la valeur réelle dans le cas de la méthode de Yule-
Walker, bien qu’elle se rapproche de la valeur réelle lorsque N augmente. Pour les trois autres
méthodes on voit que l’approximation est bonne, ces méthodes donnant à peu près les mêmes
résultats.
Les figures du tableau 3.4 montrent bien la dispersion plus grande de la fonction de détection
dans le cas de la méthode de Yule-Walker.

La conclusion que l’on peut tirer de cette étude de simulation est que toutes les méthodes
peuvent être utilisées dans le cas de processus AR de type « filtre large bande », mais que dans le
cas de « filtre bande étroite » la méthode de Yule-Walker (probablement du fait qu’elle utilise
une procédure d’addition de zéros sur les données) donne de moins bons résultats et fournit des
valeurs plus faibles pour la fonction de détection, ce qui oblige à choisir des seuils plus bas, donc
à aboutir à davantage de fausses alarmes. C’est pour cela que dans le cas général de
segmentation il est légitime d’éliminer cette méthode pour un algorithme de segmentation de
type CUSUM.

En tenant compte des remarques sur la récursivité, le choix final s’est porté sur la méthode de
covariance car la récursivité est simple à mettre en oeuvre et le temps de calcul est plus faible
que pour la méthode de covariance modifiée alors qu’elle aboutit au même résultat vis à vis du
problème de détection de changement.
MDCS et choix des paramètres 61

3-2-2-4 Choix de l’ordre du modèle

a) Les méthodes de choix de l’ordre

Dans le cas de signaux réels, et lorsqu’ils sont modélisés par un modèle AR, l’ordre du modèle
n’est pas connu a priori. Plusieurs critères peuvent être utilisés pour la sélection de l’ordre, ces
critères étant principalement fondés sur l’évolution de l’erreur de prédiction [Kay88], [Mar87].

Deux critères sont proposés par Akaike. Le premier est l’erreur de prédiction finale (FPE)
[Mar87]. L’erreur de prédiction finale est définie pour un processus AR par :
^ N + ( p + 1)
FPE( p ) = ρ p ( ) (3.28)
N − ( p + 1)
^
avec N le nombre d’échantillons, p l’ordre du modèle, et ρ p l’estimée de la variance du bruit

blanc à l’ordre p. L’ordre choisi est celui qui rend la fonction FPE minimale.
Le deuxième est le critère AIC (Akaike Information Criterion) [Aka74]. La fonction AIC pour
un processus AR est donnée par :
^
AIC ( p ) = N . ln( ρ p ) + 2. p (3.29)

Comme précédemment l’ordre choisi est celui qui minimise la fonction AIC.
Les deux critères sont équivalents asymptotiquement [Mar87], mais le critère AIC est plus
performant pour les faibles échantillons [Kay83]. En fait ces critères ne peuvent être utilisés
systématiquement sans précaution dans la pratique, mais ils servent de première approche pour le
choix de l’ordre [Mar87]. On note que dans le cas des signaux EMG, le bruit peut être important
et ces critères de sélection de l’ordre ne sont plus utilisables dans de bonnes conditions [Kay88],
[Kor99].

b) Effet d’un ordre supérieur à l’ordre réel

Considérons le cas d’un changement d’un modèle AR0 d’ordre p à un modèle AR1 d’ordre q. On
suppose que p < q.

Si le processus sous-jacent est effectivement un processus AR d’ordre p, alors l’équivalent


d’ordre q du modèle AR d’ordre p de paramètre :

θ 0 = (a10 , a 02 ,..., a 0p , σ20 ) est le modèle d’ordre q de paramètre :


62 MDCS et choix des paramètres

θ 0 = (a10 , a 02 ,..., a 0p , a 0p+1 = 0,..., a 0q = 0, σ20 ) .

Le logarithme du rapport de vraisemblance entre les deux modèles est :


f θ1 ( xi / xi−1,...., x1 ) f θ1 ( xi / xi−1,...., xi− q )
si = ln = ln
fθ 0 ( xi / xi −1 ,...., x1) f θ0 ( xi / xi−1,...., xi− p )
(3.30)
fθ1 ( xi / xi−1 ,...., xi −q )
1 σ 2 (ε 0 ) 2 (ε 1) 2
= ln = [ ln 02 + i 2 − i 2 ]
fθ 0 ( xi / xi−1,...., xi− q ) 2 σ1 σ0 σ1

avec :
q
ε i0 = xi + ∑ a 0k .xi −k ; a 0p+1 = ... = aq0 = 0 (3.31)
k =1

q
ε 1i = xi + ∑ a1k .xi −k (3.32)
k =1

Il est clair que l’algorithme de détection doit être appliqué en utilisant comme modélisation AR
l’ordre le plus élevé rencontré dans les différents segments du signal.
Pour illustrer le fait que la détectabilité se conserve en prenant comme modèle le modèle d’ordre
le plus grand, prenons les deux modèles suivants :
θ 0 = (a10 = 0.1000, σ 02 = 1)
de coefficient de réflexion K1 =0.1 et de variance 1
θ1 = ( a11 = 0.14, a12 = 0.4000, σ 12 = 1)
de coefficients de réflexion K1 =0.1, K2 = 0.4 et de variance 1, deux modèles peu différents.
Construisons ensuite 50 réalisations d’un signal dont les premier 1000 points sont générés par le
premier processus et les 1000 points suivants par le second processus.
On estime alors les deux modèles par la méthode de covariance (méthode retenue au paragraphe
précédent ) en utilisant l’ordre 2 comme ordre pour l’estimation. En utilisant ces valeurs
estimées, l’évolution de la somme cumulée est présentée sur la figure 3.1.
MDCS et choix des paramètres 63

FIG. 3.1 – Evaluation de la somme cumulée pour des modèles estimés en utilisant l’ordre le plus
grand. Axe des abscisses : nombre de points. Axe des ordonnées : valeur de la somme cumulée.

On voit bien sur cette figure que l’estimation des deux modèles en utilisant l’ordre le plus élevé
préserve la détectabilité.

c) Effet d’un ordre inférieur à l’ordre réel

On considère à présent deux processus AR0 (p) et AR1 (p). L’objet de ce paragraphe est d’étudier
le comportement de l’algorithme de détection en modélisant les deux processus par un modèle
d’ordre q cette fois inférieur à l’ordre réel p.
La relation entre AR0 (q) et AR0 (p) d’une part et AR1 (q) et AR1 (p) d’autre part est obtenue
facilement par l’équation de Levinson inverse (voir Annexe B).
L’intérêt de cette étude est que, dans le cas pratique, l’ordre du modèle n’est pas connu. Il faut
alors voir comment la fonction de détection se comporte si les processus sont modélisés par des
modèles dont l’ordre est inférieur à l’ordre réel.

On sait que lors d’un changement d’un processus A 0p ( z) vers un processus A1p ( z) , les

expressions de l’espérance avant et après le changement sont :

1 σ 02 σ 02 ∞
Eθ 0 [ s ] = [1 + ln 2 − 2 (1 + ∑ ( c1k / 0 ) 2 )]
2 σ1 σ1 k =1

(3.33)
64 MDCS et choix des paramètres

1 σ 12 σ12 ∞
Eθ1 [ s] = [−1 − ln 2 − 2 (1 + ∑ ( c0k /1 ) 2 )]
2 σ0 σ0 k =1

Quand on remplace ces deux polynômes par leur équivalent d’ordre q A 0q ( z) et A1q ( z) ,

l’expression du logarithme du rapport de vraisemblance devient :

1 σ 0'2 (ε k'0 ) 2 (ε 'k1) 2


s = [ ln '2 + ' 2 − '2 ] (3.34)
2 σ1 σ0 σ1
L’expression de l’espérance avant le changement est :

1 σ '2 E[(ε k'0 ) 2 ] E[(ε k'1) 2 ]


Eθ 0 [ s ] = [ ln 0'2 + − ] (3.35)
2 σ1 σ 0'2 σ 1'2
On a :
2
E[( ε 'k0 ) 2 ] = σ'0 (3.36)


'2
'1 2
E[(ε k ) ] = σ0 .(1 + ∑ (c'k1 / 0 )2 ) (3.37)
k =1
et comme on a :

A 1q ( z) ∞
=1+ ∑ c 'k1/0 .z − k (3.38)
A 0q ( z) k=1

alors :

1 σ '2 σ ' 2 ∞
Eθ 0 [ s ] = [1 + ln '02 − 0'2 (1 + ∑ ( ck'1/0 ) 2 )] (3.39)
2 σ1 σ1 k =1

La même démarche donne :

1 σ '2 σ '2 ∞
Eθ1 ( s) = [ −1 − ln 1'2 − 1'2 (1 + ∑ (ck'0 /1 ) 2 )] (3.40)
2 σ0 σ 0 k =1

On voit ici qu’il y a une différence dans l’expression des espérances mathématiques lorsqu’on
utilise un modèle d’ordre plus petit. On va voir que cette différence correspond généralement à
des espérances mathématiques plus faibles que les espérances mathématiques réelles (et donc à
des résultats de détection moins performants, car on est obligé d’utiliser des seuils plus bas). Il
est même possible d’aboutir à des cas où ces espérances mathématiques sont nulles, donc à une
impossibilité de détection.
MDCS et choix des paramètres 65

Pour cela, illustrons l’étude précédente au cas d’ordre 1. Prenons un changement de

θ 0 = ( a10 , σ02 ) à θ1 = (a11, σ12 ) .

On a alors :

A1( z) 1 + a11.z −1 ∞
1 / 0 −k
= = 1 + ∑ c k .z (3.41)
A 0 ( z ) 1 + a1 .z
0 −1
k =1
On peut voir facilement et par divisions successives de ces deux polynômes que :

c1k/ 0 = ( −1) k−1.( a10 ) k −1 .(a 11 − a 10 ) et donc :

∞ ∞ ( a11 − a 10 ) 2
1+ ∑ ( c1k/ 0 ) 2 = 1 + ( a 11 − a 1 ) . (a 10 ) 2.( k −1)
0 2
∑ =1+ .
k=1 k =1 1 − ( a 10 ) 2
ce qui donne :

1 σ 02 σ 02 (a11 − a10 )2
Eθ0 [ s] = .[1 + ln 2 − 2 .(1 + )] (3.42)
2 σ1 σ1 1− (a10 )2
De même on a :
1 σ2 σ2 ( a1 − a 0 ) 2
Eθ1 [ s] = .[ −1 − ln 12 + 12 .(1 + 1 11 2 )] (3.43)
2 σ0 σ0 1 − ( a1 )

L’approximation à l’ordre 0 du processus d’ordre 1 A( z ) = 1 + a.z − 1 de variance σ 2 est le

σ2
modèle d’ordre 0 avec A ( z ) = 1 et σ = '2
.
1− a 2
Le logarithme du rapport de vraisemblance est alors :

1 σ '2 (ε '0 ) 2 (ε '1) 2


s = [ ln 0'2 + k ' 2 − k '2 ] (3.44)
2 σ1 σ0 σ1
On a alors :

1 σ 02 σ 02 (a11 − a10 )2
Eθ0 [ s] = .[1 + ln 2 − 2 .(1 + )] (3.45)
2 σ1 σ1 1− (a10 )2
~
1 σ 02 1 − (a11) 2 σ12 1 − (a11 )2
Eθ1 [ s] = .[−1+ ln 2 . + . ] (3.46)
2 σ1 1− (a10 )2 σ 02 1− (a10 )2
On peut voir que si on prend :

a 11 = 1 − ( σ1 ) 2 et a10 = 1 − (σ0 ) 2
~
On aboutit alors à Eθ 1[ s] = 0 bien que Eθ 1[ s] ≠ 0 .
On voit sur cet exemple que la propriété de détectabilité n’est plus vérifiée.
66 MDCS et choix des paramètres

A titre d’illustration, prenons le cas suivant :

θ 0 = ( a10 = 0.8 ; σ 20 = 0.2) et θ1 = (a11 = 0.2 ; σ12 = 0.8)

Les fonctions de détection obtenues avec les paramètres réels et les paramètres du modèle
d’ordre 0 équivalent sont présentées sur la figure 3.2.

(a) (b)
FIG. 3.2 – a) Evaluation de la fonction de détection par les paramètres réels, b) Evaluation de la
fonction de détection par les paramètres d’ordre 0 équivalents. Axe des abscisses : nombre de
points. Axe des ordonnées : valeur de la fonction de détection.

On voit que lorsqu’on utilise les vrais modèles on a clairement une détection, tandis que dans le
cas d’utilisation des modèles équivalents d’ordre plus petit la fonction de détection reste au
voisinage de 0.
Ce contre exemple illustre le fait qu’une non détectabilité peut être observée quand on utilise un
ordre plus faible que l’ordre réel.
Dans d’autres configurations, on peut observer une diminution de la fonction de détection du fait
d’une valeur sous-estimée de l’espérance du logarithme de vraisemblance :
~
Eθ 1[ s] < Eθ 1[ s ] (3.47)

Par exemple dans le cas où : θ 0 = ( a10 = 0.1; a20 = 0.95; σ 02 = 4) et θ1 = ( a11 = 0.6; a12 = 0.95; σ 12 = 1) ,
si on utilise les modèles d’ordre 1 équivalents à ces deux modèles on aboutit au résultat présenté
sur la figure 3.3.
MDCS et choix des paramètres 67

FIG. 3.3 – Evaluation de la fonction de détection par les paramètres du modèle vrai (d’ordre 2) ,
et à partir des paramètres du modèle d’ordre 1 équivalent. Axe des abscisses : nombre de points.
Axe des ordonnées : valeur de la fonction de détection.

On voit bien que l’utilisation d’un ordre plus petit conduit généralement à une dégradation de la
détection, car soit on perd la détectabilité, soit il est nécessaire de prendre des seuils plus bas, ce
qui augmente le taux de fausses alarmes.

d) Cas des signaux EMG

Quand les signaux EMG de surface sont représentés par un modèle AR, il n’y a pas un ordre
unique quel soit le type de signal. En effet l’ordre varie en fonction du protocole expérimental et
des conditions de recueil des signaux.. Par exemple, dans [Hef88] l’ordre choisi est 4, alors que
d’autres comme [Gra89b] utilisent 6 comme ordre. Dans le cas d’estimation spectrale, l’ordre
utilisé par [Sei87] est de 15, alors que dans [Coa83] un ordre de 8 est utilisé pour le même
problème d’estimation spectrale.
Dans notre cas, étant donné que le rapport signal sur bruit est petit, un ordre de 20 a été utilisé.
Ce choix est justifié par le fait que, dans le cas d’un faible rapport signal sur bruit, il faut utiliser
un ordre supérieur afin de tenir compte de la présence du bruit additif.
68 MDCS et choix des paramètres

e) Conclusion sur le choix de l’ordre

Quand on utilise un algorithme de détection sur des données réelles, il est difficile de connaître
l’ordre réel du processus. D’une part les critères de sélection d’ordre ont une tendance à sous-
estimer l’ordre réel du processus. D’autre part l’ordre du modèle peut varier d’un segment à
l’autre, alors que les algorithmes sont construits pour travailler avec un ordre fixé à l’avance.
Il a donc été nécessaire d’étudier l’effet de l’utilisation d’un ordre plus petit ou plus grand sur la
détectabilité de l’algorithme CUSUM.
Certains auteurs [Bas83b], [Obr88a], [Bas93] utilisent des ordres plus petits que les ordres réels
pour l’algorithme de détection, en particulier dans le cas du traitement des signaux de parole. En
fait, comme nous l’avons montré, l’utilisation d’une ordre inférieur peut conduire à une perte de
détectabilité et amener à utiliser des seuils plus bas augmentant ainsi le taux de fausses alarmes.
En conclusion l’utilisation d’ordres inférieurs à l’ordre réel, malgré le fait que cela rende
l’algorithme de détection plus rapide, doit être évitée si cela ne crée pas d’incompatibilités en
temps de calcul.
L’utilisation d’un ordre plus grand n’affecte pas réellement la détection (à condition qu’il ne soit
pas trop élevé), mais augmente le temps de calcul. Compte tenu de la présence d’un bruit
important (signaux posturaux) nous sommes contraints de choisir un ordre plus élevé que ce qui
est généralement préconisé dans la littérature consacrée à la modélisation de l’EMG de surface.
Dans la suite de ce travail, compte tenu de l’ensemble de ces éléments, un ordre 20 sera retenu
pour toute modélisation AR.

3-3 Méthode automatique du choix des seuils

3-3-1 Introduction aux problèmes liés au choix de seuils

Dans tous les algorithmes de détection et de segmentation, le choix du seuil est très important et
influe beaucoup sur le résultat final de la segmentation. Il faut noter que le choix d’un seuil bas
conduit à une sur segmentation, et qu’un seuil haut conduit à une mauvaise détection.
Evidemment il n’existe pas un seuil unique qui serait applicable à tous types de signaux, et le
seuil varie d’un type d’application à un autre [Bas93], [Obr97], [Kha00]. Pour tous les
algorithmes de type CUSUM, il n’existe que des formules asymptotiques pour le calcul du seuil,
qui sont calculées en fonction de la probabilité de fausse alarme ou du retard moyen à la
MDCS et choix des paramètres 69

détection. Ces formules sont difficiles à utiliser en pratique car elles restent des formules
asymptotiques. Le problème du choix du seuil en fonction du type de signal reste donc un
problème ouvert. Nous proposons dans ce paragraphe une méthode originale de détermination
automatique du seuil pour l’algorithme MDCS, qui a démontré son efficacité lorsqu’on
l’applique à des signaux EMG de surface.

3-3-2 Les formules asymptotiques du choix de seuil – cas de CUSUM

Dans le cas de l’algorithme CUSUM, les deux indices de performance sont:

- le temps moyen entre fausses alarmes, défini par :

T = E θ0 ( t a ) (3.48)
- le temps moyen de retard à la détection, défini par :
τ = E θ1 ( ta ) (3.49)

Il est démontré que l’algorithme CUSUM est asymptotiquement optimal [Bas93], dans le sens où
il minimise le temps moyen de retard à la détection lorsque le temps moyen entre fausses
alarmes tend vers l’infini.
Beaucoup d’études ont été développées pour relier le seuil h à ces deux indices de performance
[Bas93], [Nik95], [Lai98], [Nik00]. Il a en particulier été démontré [Bar00] que :
h + C1
τ≤ (3.50)
K (θ 1, θ 0 )

e h − h − C2
T≥ (3.51)
K (θ 0 , θ1 )
• h est le seuil
• K (θ 0 ,θ 1 ) et K (θ 1, θ 0 ) sont les deux informations de Kullback-Leibler
• C1 = sup Eθ1 [ si − λ / si ≥ λ > 0], C2 = C1 − 1
λ >0

Bien que ces deux formules démontrent l’optimalité asymptotique, elles ne peuvent pas être
utilisées simplement pour le choix du seuil h, en particulier parce qu’il est très difficile de fixer
de façon objective les deux temps T et τ.
70 MDCS et choix des paramètres

3-3-3 Effet de l’information de Kullback-Leibler sur le choix du seuil

L’information de Kullback- Leibler joue un rôle important dans la capacité d’un algorithme à
détecter un changement. Aussi cette information peut permettre le choix du seuil dans des
algorithmes de type CUSUM, compte tenu également du nombre des échantillons.
Par définition [Bor87], [Bas93] l’information de Kullback-Leibler entre les deux densités de
probabilité f θ0 et f θ1 d’une variable aléatoire y est donnée par :

f θ0 ( x )
K (θ 0 , θ1 ) = ∫ ln fθ 0 ( x ) dx
f θ1 ( x)

= Eθ 0 [ −s ] = − Eθ 0 [ s ] ≥ 0 (3.52)

De même :
f θ1 ( x)
K (θ1, θ 0 ) = ∫ ln fθ1 ( x ) dx = Eθ1 [ s ] ≥ 0 (3.53)
fθ 0 ( x )

L’information de Kullback- Leibler est nulle lorsque θ1 =θ0 .


La fonction de détection g sous H1 est telle que :
j j j
g j = ∑ si − min ∑ si = ∑s i (3.54)
1≤i ≤ j
i =1 i =1 i =k +1

k étant l’instant de changement.


Calculant l’espérance mathématique de g sous H1 , on a :
j
Eθ1 [ g ] = ∑ Eθ1 [ si ] = ( j − k − 1).Eθ1 [ si ] (3.55)
i = k +1

Donc la fonction de détection g atteint en moyenne un seuil h après M échantillons sous


l’hypothèse H1 , si h ≈ Eθ1 [ g ] . On peut écrire la relation suivante :

h ≈ M .Eθ1 [ s] (3.56)

et donc il faut que :


h ≈ M .K (θ 1,θ 0) (3.57)
Cette expression (qui est connue sous le nom d’identité de Wald [Bas93]) est très importante
dans l’étude du choix de h. En fait ce choix dépend d’abord de la longueur minimale du
phénomène à détecter (qui est définie par le phénomène physique de durée la plus courte à
trouver dans le signal). Cette longueur minimale est en effet directement liée au nombre M
d’échantillons nécessaires pour atteindre le seuil. Le choix dépend ensuite de l’information de
Kullback-Leibler entre le processus courant (hypothèse courante) et le phénomène à détecter.
MDCS et choix des paramètres 71

Dans le cas d’hypothèses connues, on peut calculer l’information de Kullback-Leibler entre ces
différentes hypothèses, et en fixant la taille M du segment minimal à détecter, on peut fixer le
seuil en fonction de l’information de Kullback-Leibler minimale dans le signal. De cette manière
on garantit la détection de tous les changements de taille supérieure à M, comme l’indique la
formule (3.57).
Dans le cas d’hypothèses inconnues, on ne connaît pas les valeurs de l’informations de Kullback-
Leibler entre les différentes hypothèses. Il et donc difficile de fixer le seuil en fonction de cette
information de Kullback-Leibler minimale inconnue. Notre approche consiste alors à balayer le
signal en estimant de façon rapide, la répartition de l’information de Kullback-Leibler sur toute
la durée du signal, puis à proposer des valeurs de seuils compte tenu de cette répartition. Cette
approche est décrite dans le paragraphe suivant.

3-3-4 La nouvelle approche du choix de seuil

Cette approche est fondée sur la formule (3.57). Son principe consiste à balayer le signal et à
estimer la fonction de répartition de l’information de Kullback-Leibler tout au long du signal.
Cette répartition pourra nous permettre de fixer ensuite les seuils hL et hH nécessaires à
l’algorithme de détection. On note que ce calcul de seuil ne peut se faire que lorsqu’il s’agit de
signaux de longue durée, afin d’assurer une estimation correcte de la fonction de répartition de
l’information de Kullback-Leibler.

La démarche est constituée de cinq étapes :

1- On considère deux fenêtres consécutives de longueur M à partir du début du signal et on


calcule l’information de Kullback-Leibler entre ces deux fenêtres (voir Annexe A pour le
détail du calcul de l’information de Kullback-Leibler entre deux modèles AR). On décale
ensuite ces fenêtres de N points, on calcule à nouveau l’information de Kullback-Leibler, et
ainsi de suite jusqu’à avoir balayé tout le signal. On obtient ainsi une séquence aléatoire IKL
des valeurs de l’information de Kullback-Leibler dans le signal.
2- On effectue un tri de la séquence IKL pour obtenir une séquence IKLt croissante, qui
regroupe donc dans sa partie inférieure les valeurs faibles de l’information Kullback-Leibler
et qui correspond aux parties du signal où il n’y a pas de changement, et qui regroupe dans sa
partie supérieure les valeurs qui correspondent à la présence de changements.
72 MDCS et choix des paramètres

3- De la séquence IKLt on ne considère que 85% des points correspondant à des valeurs de
l’informatio n de Kullback-Leibler en l’absence de changement (ce choix heuristique est une
extrapolation linéaire de la première moitié de la séquence, correspondant à des valeurs de
l’information de Kullback-Leibler en l’absence de changement dans les signaux étudiés. Une
justification de cette hypothèse sur la base des signaux réels sera donnée dans le chapitre 5).
On obtient alors une séquence IKLb qu’on estime comme étant la partie du signal où il n’y a
pas de changements dans le signal.
4- On calcule ensuite la racine carrée de la moyenne de la somme des carrés de IKLb, soit
MS IKL cette somme (estimation d’une valeur RMS).
5- Soit M la longueur minimale du segment à détecter. Alors on prend comme valeur du seuil
bas h L = M .K L .MS IKL , et comme va leur du seuil haut hH = M .K H .MS IKL .

Dans le paragraphe précédent, l’équation 3.57 a montré le lien direct qui pouvait être établi entre
l’information de Kullback-Leibler, le nombre M d’échantillons nécessaires à la détection, et la
valeur du seuil.
Pour cette équation, l’information de Kullback-Leibler considérée résultait de la distance entre
les modèles θ 0 et θ1 .

Ici seul le modèle θ 0 est considéré, et le choix du seuil dépend essentie llement de la variance de
^1 ^2
K (θ 0 ,θ 0 ) (c.à.d. de deux estimateurs de θ 0 ), liée à la variance de l’estimateur du modèle sous
H0 , elle même dépendant des caractéristiques du signal réel à modéliser.
M.MS IKL représente donc la valeur la plus petite possible à partir de laquelle on est capable de
détecter l’événement de paramètre θ1 le plus court possible (M) différant le moins possible du

modèle θ 0 . Cette quantité doit donc constituer le seuil bas de l’algorithme de détection, et KL
devrait être égal à 1 (ceci sera vérifié au paragraphe suivant). Nous avons ensuite posé comme
hypothèse que KH était indépendant du signal (les caractéristiques du signal étant contenues dans
MSIKL) mais lié à la méthode de détection utilisée. KH peut donc être déterminé à partir de
n’importe quel signal de simulation. On vérifiera ensuite cette hypothèse sur des signaux réels
expertisés.
MDCS et choix des paramètres 73

3-3-5 Quelques résultats de simulation qui démontrent la validité de la


méthode

La vérification de la valeur de KL et la détermination de celle de KH ont été effectuées par


simulation sur les mêmes signaux de référence que ceux utilisés pour construire la courbe COR
du chapitre précédent (§ 2-3). La segmentation a été réalisée pour des valeurs successives de KL
et KH et la probabilité de non détection et de fausse alarme a été calculée.
La figure 3.9 représente la variation de l’erreur de segmentation (somme des non détections et
des fausses alarmes) pour chaque valeur de KL et KH . On vérifie qu’il existe un minimum pour
KL = 1. La valeur de KH pour ce même minimum est égale à 3.

FIG. 3.9. - Variation de l’erreur relative de segmentation suivant les valeurs des coefficients
KL (axe y) et K H (axe x)

3-4 Compléments et algorithme de segmentation complet

Dans ce paragraphe nous allons décrire l’algorithme général de segmentation tel qu’il ressort des
différents choix opérés dans les chapitres précédents en y ajoutant des procédures permettant
74 MDCS et choix des paramètres

d’améliorer encore la détection de changements, cette fois de façon heuristique, en faisant les
constats suivants :
- On peut remarquer tout d’abord que des changements qui ne sont pas détectés dans le sens
direct, peuvent être détectés dans le sens inverse. Ce phénomène est dû en partie au fait que
les informations de Kullback-Leibler ne sont pas symétriques, K (θ 0 , θ1 ) ≠ K (θ 1,θ 0 ) . Ce
même phénomène est aussi observé dans d’autres domaines d’applications et par d’autres
chercheurs, par exemple dans le traitement de la parole [Obr88a], [Bas93]. Une première
modification à l’algorithme de segmentation consiste, à chaque fois qu’on détermine unn
point de changement dans le sens direct, à lancer l’algorithme de détection dans le sens
inverse à partir de ce point. Si le changement détecté en inverse correspond au même point
que celui détecté en sens direct (à quelques points près), on conserve ce point comme le vrai
instant de changement et on continue la détection dans le sens direct. Sinon on reprend la
détection dans le sens direct à partir du point détecté dans le sens inverse. Cette étape
supplémentaire dans l’algorithme de segmentation a pu améliorer la qualité de la
segmentation, car elle prend en compte le fait que la ré-estimation des paramètres de
l’hypothèse H0 peut se faire dans de mauvaises conditions sur des segments trop courts. Les
segments ainsi générés peuvent être de taille inférieure à N+p (N taille de la fenêtre
d’estimation, p ordre du modèle AR). Il faut alors les éliminer.
- On a remarqué également que des segments de taille N+p sont fréquemment détectés. Ces
segments sont dus à la présence de transitoires courts mais d’énergie élevée (mouvements
rapides du sujet par exemple). Ces pics sont bien détectés mais engendrent des segments de
taille exactement égale à N+p (taille minimale nécessaire à la ré-estimation des paramètres de
H0 ). La taille de ces segments est donc totalement artificielle. Il faut donc les éliminer. De
façon plus générale, il a été décidé d’éliminer tous les segments de petite taille, car ils sont
dus soit à des pics d’énergie soit à des segments pour lesquels les modèles AR ont été mal
estimés. La conséquence pour l’algorithme de segmentation est alors que, chaque fois qu’un
segment de petite taille est détecté, on élimine ce segment et on retourne au point de
changement précédent pour redémarrer l’algorithme de détection. La taille minimale des
segments à conserver est dépendante de l’application. Elle sera définie au chapitre 5.

Ces ajustements de l’algorithme de segmentation ont permis d’obtenir des résultats encore
meilleurs sur les signaux réels (la présence de transitoires courts n’ayant pas été considérée en
simulation). Pour terminer, notons que l’algorithme a été programmé en langage C, ce qui, pour
MDCS et choix des paramètres 75

un signal de 15 minutes, a fa it passer le temps de traitement de 8 h à 1 minute. L’organigramme


final de l’algorithme de segmentation est représenté sur la figure 3.10.

FIG. 3.10. – Organigramme général de l’algorithme de segmentation


76 MDCS et choix des paramètres

3-5 Conclusion

Dans ce chapitre nous avons présenté une méthodologie pour le choix des différents facteurs qui
influencent la performance d’un algorithme de segmentation. Nous avons en premier lieu abordé
le thème du choix du modèle de représentation du signal dans le but d’utiliser ensuite ce modèle
pour un suivi des changements spectraux du signal au cours de temps.
Les signaux SEMG produits par l’expérimentation étant très bruités, un modèle ARMA aurait
été le meilleur pour représenter les signaux. Cependant la complexité de l’estimation des
paramètres d’un modèle ARMA et la possibilité de le remplacer par un modèle AR d’ordre plus
élevé nous a conduits à l’utilisation d’un modèle AR d’ordre 20.
Comme nous l’avons souligné, il existe plusieurs méthodes pour estimer un modèle AR, ces
méthodes influant beaucoup sur la qualité de l’algorithme de segmentation. Pour effectuer un
choix entre ces méthodes, nous avons utilisé deux critères, l’un étant l’influence de la méthode
d’estimation sur la performance de l’algorithme de détection, l’autre étant la possibilité de mise
en place d’un calcul récursif (ou semi récursif) pour accélérer la vitesse de l’algorithme de
segmentation, compte tenu en particulier de la taille et du nombre des signaux à traiter. La
méthode de covariance a été retenue sur la base de ces deux critères.
L’ordre du modèle est un autre paramètre très important pour la qualité de l’algorithme de
segmentation. Nous avons constaté que les critères classiques ne donnaient pas un ordre correct
dans le cas des signaux réels, surtout en présence d’un niveau de bruit élevé. Nous avons
également montré que l’utilisation d’un ordre plus petit que l’ordre réel influe beaucoup sur la
performance des algorithmes de détection, alors que l’utilisation d’un ordre grand modifie peu
ces performances. Un ordre 20 a été alors retenu pour la modélisation des signaux SEMG.
Un problème majeur abordé dans ce chapitre est le choix du seuil, ce choix étant toujours crucial
pour un algorithme de segmentation. Dans la plupart des travaux issus de la bibliographie ce
choix reste expérimental, peu satisfaisant et très difficile à faire dans le cas du traitement d’un
nombre important de signaux longs. Nous avons alors développé une démarche originale à
double seuil, en nous fondant sur la distribution de l’information de Kullback-Leibler dans le
signal. Cette approche montrera ses qualités dans le cas des signaux SEMG de longue durée
(chapitre 5).
La phase de segmentation étant effectuée, il reste à mettre en place une procédure de
classification des segments obtenus, afin de ne retenir que ceux d’entre eux qui correspondent à
l’activité analysée, ici l’activité tonique ou activité de maintien postural. Il faut par contre rejeter
les segments contenant des activités phasiques, ou présentant un rapport signal sur bruit trop
MDCS et choix des paramètres 77

défavorable, interdisant une estimation correcte ultérieure de paramètres spectraux. Des


segments retenus, il faut enfin extraire les paramètres permettant un suivi de l’activité tonique et
la mise en évidence de l’instauration éventuelle d’un processus de fatigue.
Rejet et Classification 79

Chapitre 4
Rejet et Classification

4-1 Introduction

Après application de l’algorithme de segmentation, il est nécessaire d’appliquer une procédure


de rejet qui nous permette de conserver uniquement les segments contenant une activité EMG
exploitable. De plus il faut pouvoir ne conserver que les segments correspondant exclusivement
à une activité de maintien postural. Il faut donc développer également un algorithme de
classificatio n entre les segments EMG phasiques et les segments toniques.
Avant la classification et l’extraction des paramètres pertinents pour l’étude de la fatigue
musculaire, il est nécessaire d’aborder le problème de l’estimation du spectre EMG, car à partir
de ce spectre doivent être calculés les paramètres (médiane, moyenne, déciles, etc.) qui
caractérisent classiquement la fatigue musculaire.
Le problème d’estimation du spectre d’un signal aléatoire a été étudié de longue date [Kay81],
[Mar87], [Kay88], [Pro96], [The92], et il existe de nombreuses méthodes d’estimation spectrale
allant de l’estimation non paramétrique qui ne présuppose aucun modèle de signal aux
estimations paramétriques fondées sur l’hypothèse de l’existence d’un modèle.
Dans le cadre des signaux EMG, de nombreuses études [Inb84], [Sei87], [Sek91], [Duc93],
[Mer99a], [Mer99b] ont proposé des méthodes et des modèles pour l'estimation du spectre EMG,
ces modèles variant d’une application à une autre.
Dans ce chapitre nous commencerons par une brève présentation des diverses méthodes
d’estimation spectrale, en soulignant les avantages et les limites de chacune, et les raisons qui
conduiront notre choix pour l’estimation du spectre EMG.
La deuxième partie du chapitre portera sur quelques méthodes d’élimination du bruit additif sous
l’hypothèse d’un bruit blanc filtré.
Ensuite nous présenterons une procédure de rejet par construction d’une statistique sur les
distances entre les déciles calculés sur deux estimations spectrales (spectre complet et spectre
tronqué), en utilisant la méthode du noyau pour estimer la distribution de ces distances. Les
résultats peu probants obtenus par cette méthode nous ont conduits à tester d’autres méthodes de
80 Rejet et Classification

rejet d’abord à base de modèle AR, puis fondées sur une modélisation spécifique du spectre de
l’EMG.
Le chapitre se terminera par une proposition de classification entre activités phasiques et
activités toniques.

4-2 Estimation spectrale pour l’EMG

4-2-1 Estimation par périodogramme

Le périodogramme est une méthode d’estimation spectrale non paramétrique qui n’impose
aucun modèle pour le signal. Elle est fondée sur la transformation de Fourier discrète.
Soit N échantillons du signal x0 , x1 , …. , xN-1 , le périodogramme est défini par [Mar87], [Kay88],
[Orf90], [Kun91] :
2
^
1 N −1 − j 2 πfn
S PER ( f ) = ∑ xn .e (4.1)
N n=0
2
^ ^
Il faut noter que cet estimateur est biaisé. De plus on montre que Var ( S PER ( f )) ≈ S PER ( f )

quelque soit N [Kay88] [Kun91]. Cet estimateur donc est inconsistant, la variance du
périodogramme étant très grande. Pour réduire cette variance Bartlett [Pro96] [Bar48] a proposé
une modification au périodogramme. Dans la méthode de Bartlett les segments de taille N sont
divisés en K segments de M points non superposés. Pour chaque segment on calcule le
périodogramme puis on définit le périodogramme de Bartlett comme étant la moyenne de ces
périodogrammes élémentaires. Le périodogramme de Bartlett, appelé aussi périodogramme
moyenné, diminue la variance par un facteur K, mais réduit en même temps la résolution
spectrale du même facteur K. Il faut donc trouver un compromis dans le choix de K entre la
résolution spectrale et la diminution de variance.
En réalité, parmi les méthodes d’estimation non paramétriques, on utilise plutôt la méthode du
périodogramme moyenné modifié ou méthode de Welsh [Pro96]. Cette méthode diffère de la
méthode de Bartlett par deux point essentiels : on applique une fenêtre non rectangulaire
(fenêtre de Hanning en général) aux données pour diminuer l’effet des lobes dans l’estimation
des points spectraux. On utilise également des segments partiellement superposés. Pour chaque
segment on définit le découpage de la façon suivante :
Rejet et Classification 81

xi ( n) = x (n + i .D ) n = 0,1,..., M −1
i = 0,1,..., L - 1
où M est la taille des segments après découpage, D est le décalage d’un segment à l’autre et L est
le nombre de segments obtenus. Dans le cas d’un recouvrement de 50%, on a D=M/2 et on a
alors L=2K segments. Le périodogramme modifié de chaque segment i est estimé par :
2
^i M −1
1
S (f)=
MU ∑ x (n).w(n).e
n =0
i
− j 2 πfn

avec U facteur de normalisation de la fenêtre W, défini par :


M −1

∑ w (n ) .
1
U=
2

M n =0

L’estimation du spectre par la méthode de Welsh est alors définie par :


^
1 L −1 ^ i
SW ( f ) = ∑S ( f ) (4.2)
L i=0
La méthode de Welsh est la méthode non paramétrique la plus utilisée pour estimer un spectre
[Mar87], [Kay88], [Pro96], car elle réduit davantage la variance de l’estimateur que celle de
Bartlett [Mar87][Orf90].

4-2-2 Estimation paramétrique

On se place ici dans le cas de signaux modélisés par un modèle paramétrique de type ARMA ou
AR. Les estimateurs spectraux paramétriques sont caractérisés par le fait qu’ils sont des
estimateurs de résolution infinie. Ces estimateurs sont efficaces à condition que le modèle choisi
soit très proche du signal réel, ce qui est très difficile à démontrer en pratique.
Dans le cas d’un signal modélisé par un modèle ARMA(p,q) d’équation de récurrence :
p q
xn = −∑ a k . xn− k + ∑ b k .xn− k + ε n (4.3)
k =1 k =0

On tire l’expression du spectre par :


q 2
− j 2πfk
∑ bk .e
S ARMA ( f ) = σ ε2 . k=0
p
(4.4)
1 + ∑ ak .e− j 2πfk
k =1

Dans le cas d’un processus AR, le spectre devient alors :


82 Rejet et Classification

σ 2ε
S AR ( f ) = 2
(4.5)
p
− j 2 πfk
1 + ∑ ak .e
k =1

Dans le cas réel on doit estimer les paramètres de ces modèles à partir des données réelles, donc
utiliser l’une des méthodes déjà discutées pour l’estimation d’un modèle ARMA ou AR. Comme
il a été déjà montré qu’un modèle ARMA était rarement utilisé pour modéliser un processus à
cause des difficultés liées à l’identification d’un tel modèle [Mar87], [Kay88], nous limiterons la
discussion à l’estimation du spectre par les méthodes paramétriques AR. Dans le cas d’un
modèle AR estimé, l’expression du spectre devient alors :
^2
^ σε
S AR ( f ) = 2
(4.6)
p ^
1 + ∑ a k .e − j2πfk
k =1

Les paramètres du modèle sont estimés par l’une des méthodes d’estimation déjà citée dans le
chapitre 3. Dans la littérature les avantages et les inconvénients de chaque méthode vis à vis
d’une estimation spectrale ont été largement décrits [Mar87], [Kay88], [Pro96]. Ce paragraphe
n’en fera donc qu’un bref résumé. Il est démontré que, de toutes les méthodes, la méthode
d’autocorrélation donne le spectre le moins bon (on peut voir par exemple l’étude de simulation
faite par Kay [Kay88]). Ceci est dû à l’introduction de zéros dans la série de données, ce qui
induit une mauvaise estimation des paramètres AR. La méthode de Burg est meilleure dans la
mesure où elle a une résolution infinie et produit un modèle AR stable [Mar87] [Pro96].
Cependant un inconvénient de la méthode est qu’elle fait apparaître des pics supplémentaires
lorsque l’ordre du modèle est élevé [Mar87], [Kay88]. De plus elle peut aboutir à un décalage de
fréquence dans certains cas [Mar87], [Kay88]. Les méthodes de Covariance et de Covariance
modifiée sont également meilleures que celle d’auto-corrélation et résolvent le problème de
décalage de fréquence [Mar87], [Kay88].
Le point le plus important dans le cas d’estimation paramétrique reste la recherche de l’ordre du
modèle utilisé (voir chapitre précédent). Cependant, dans l’approche de détection, nous n’étions
pas tenus de choisir l’ordre du modèle le plus proche de la réalité mais seulement un ordre qui
reflétait le changement. Dans le cas d’estimation spectrale le problème se pose différemment car
dans ce cas un ordre très faible fournit un spectre trop lissé, alors qu’un ordre très élevé produit
des pics erronés. [Mar87], [Kay88].
Rejet et Classification 83

4-2-3 Estimation pseudo- spectrale par la méthode MUSIC

La méthode MUSIC n’est pas à proprement parler un estimateur spectral mais on peut la
qualifier d’estimateur pseudo- spectral. Elle est attractive pour notre problème dans la mesure où
elle permet une estimation dans le cas d’un rapport signal sur bruit défavorable.
Cette méthode repose sur la décomposition de la matrice d’autocorrélation en deux sous espaces,
espace du signal et espace du bruit [Mar87], [Kay88], [Orf90].
Elle permet d’extraire des pics de fréquence, donc des sinusoïdes, noyées dans un bruit blanc
additif [Mar87], [Geo00]. Elle nous a donc paru un moyen adapté de distinguer entre des
segments de signaux EMG bruités mais utilisables, et des segments ne contenant pas d’activité
EMG. Par contre il est clair que cette méthode ne permettra pas ensuite une bonne estimation des
paramètres spectraux pour l’étude de la fatigue musculaire.
La méthode MUSIC a été utilisée dans différents domaines, par exemple dans la localisation de
sources [Red79], la résolution d’échos [Bru85], ou encore dans le traiteme nt de signaux
biomédicaux [Aka96].
Le principe de la méthode MUSIC repose sur la décomposition de la matrice d’auto-corrélation
en valeurs propres, les unes correspondant au signal et les autres au bruit. Supposons qu’un
enregistrement contienne P sinusoïdes complexes noyées dans un bruit blanc additif de moyenne
nulle et de variance σ 02 non corrélé avec le signal.

Le signal d’observation est de la forme :


y (n ) = x (n ) + b( n) (4.7)
x(n) étant le signal composé de P sinusoïdes complexes qu’on peut écrire alors sous forme :
x (n ) = A1e jw1n + A2e jw2n + ... + AP e jwPn = x1 ( n) + x2 ( n ) + ... + xP ( n) (4.8)

Ai est l’amplitude de la composante i du signal,

wi est la fréquence de la composante i du signal.

On démontre [The92] que chaque composante xi du signal correspond à un vecteur propre de la


2
matrice d’auto- corrélation Ry de valeur propre N .E[ Ai ] + σ 02 .

Les (N-P) vecteurs propres restants sont orthogonaux aux composantes xi et ont des valeurs
propres égale à σ 02 .
84 Rejet et Classification

Donc les (N-P) vecteurs propres qui correspondent aux valeurs propres de valeur σ 02
correspondent à ce qu’on appelle «l’espace du bruit », orthogonal à l’espace formé par les
composantes xi qui correspondent à ce qu’on appelle « l’espace du signal ».
Reposant sur ce principe, plusieurs méthodes ont été développées pour estimer le pseudo spectre
d’un tel signal. Parmi ces méthodes on peut citer la méthode de Pisarenko [Mar87] qui estime le
pseudo-spectre d’un signal formé de P sinusoïdes dans un échantillon de données de longueur
(P+1).
La méthode MUSIC est une généralisation de la méthode de Pisarenko [Mar87], [Kay88],
[Aka96], [The99]. L’algorithme est le suivant :
1- Calculer une estimation de la matrice d’auto-corrélation par :
 ^ ^ ^

 y
R ( 0 ) R y ( 1) ... R y (N) 
 ^ ^ ^ 
 Ry (1) Ry ( 0) ... Ry ( N −1) 
^
 
Ry =  . .  (4.12)
 
. .
 
. . 
 ^ ^ ^ 
 R ( N ) R ( N − 1) ... R (0) 
 y y y 
avec :
^ 1 N −1− k
Ry (k ) = ∑ y ( n + k ). y ( n) (4.9)
N − k n= 0
2- Calculer les valeurs propres et les vecteurs propres correspondants de la matrice d’auto-
^
corrélation Ry .

3- Calculer la dimension K de l’espace du bruit, égale au nombre des faibles valeurs des valeurs
propres, par un critère d’Akaike ou MDL (Minimum Description Length) [Aka96], [The99].
On en déduit la dimension de l’espace du signal égale à (N+1-K).
4- Calculer le pseudo- spectre MUSIC par :
^ 1
S( f ) = (4.10)
1 K −1 2
∑ Ei ( w )
k i =1
les Ei (w) étant les vecteurs propres de l’espace du bruit.

Le pseudo-spectre MUSIC ne peut pas être utilisé pour l’estimation des paramètres (moyenne,
médiane….) du spectre EMG usuellement analysés dans le cadre de la détection et de l’évolution
Rejet et Classification 85

de la fatigue musculaire. Notre utilisation de MUSIC se limite donc à la procédure de rejet des
segments bruités. En effet cette méthode permet d’identifier les pics principaux de fréquences
dans le spectre EMG en éliminant la partie correspondant au bruit blanc. Elle devrait donc
permettre d’améliorer la procédure de rejet en présence de bruit (voir paragraphe 4.4.2).

4-2-4 Discussion sur le choix de la méthode d’estimation du spectre EMG

L’estimation de la densité spectrale de puissance d’un signal EMG est très importante car c’est à
partir de cette densité que nous allons d’une part rejeter les segments contenant trop peu d’EMG,
d’autre part calculer les paramètres qui reflètent la fatigue musculaire, ces deux objectifs ne
menant pas nécessairement à la même méthode d’estimation optimale.
L’estimation du spectre EMG par la méthode de Welsh est la plus utilisée en pratique. Plus de
90% des auteurs utilisent cette méthode pour estimer le spectre EMG [Duc93].
L’estimation du spectre EMG par des méthodes paramétriques, surtout par modèle AR, est
parfois utilisée également pour estimer un spectre EMG [Duc93][Mer99a][Mer99b]. Cependant
le problème reste le choix de l’ordre du modèle, certains auteurs utilisant un modèle d’ordre 20
[Inb84], d’autres 15 [Sei87]. Dans les conditions expérimentales qui ont été les nôtres, le rapport
signal sur bruit s’est révélé très défavorable. De ce fait l’utilisation d’un modèle AR pour
calculer le spectre EMG conduit à une mauvaise estimation spectrale. Il est en effet bien connu
qu’un estimateur de type AR est très sensible au bruit [Kay88], ce qui a pour effet de diminuer la
résolution spectrale. Dans ce cas on préfère utiliser le périodogramme qui produit une estimation
beaucoup plus robuste que le modèle AR lorsque le niveau de bruit est important
[Kun91][Kay88].
Une comparaison entre l’estimation spectrale par le périodogramme moyenné et la modélisation
AR pour des applications EMG est faite dans [Mer99b]. Bien qu’il existe des différences dans
l’estimation entre les deux méthodes, pour les calculs des paramètres globaux (médiane,
moyenne …) les deux méthodes donnent des résultats similaires, et les valeurs de ces paramètres
globaux varient très peu avec l’ordre du modèle [Kor99]. La méthode paramétrique est préférée
pour les petit segments (<0.25 s).
Le choix entre modèle AR et périodogramme de Welsh pour l’estimation du spectre EMG dans
notre cas doit tenir compte d’un rapport signal sur bruit faible (activités toniques), et de la
possibilité d’estimer ce bruit pour l’éliminer ensuite. Enfin il paraît peu justifié d’utiliser une
première méthode d’estimation pour la procédure de rejet, et une deuxième pour l’estimation des
86 Rejet et Classification

paramètres spectraux des segments conservés. Au vu de ces contraintes nous avons préféré
choisir le périodogramme de Welsh pour l’estimation du spectre SEMG dans la suite de l’étude.

4-3 Méthodes d’élimination du bruit dans le spectre

4-3-1 Introduction

Dans le cas des signaux EMG posturaux, on rencontre souvent deux types de spectres, un spectre
EMG normal (Figure 4.1) et un spectre EMG fortement bruité (Figure 4.2).

FIG. 4.1 – Illustration d’un segment d’EMG peu bruité. Tracé supérieur : segment d’EMG. Axe
des abscisses en nombre de points. Tracé inférieur : spectre associé. Axe des abscisses en Hz.
Axes des ordonnées en unités arbitraires.

FIG. 4.2 – Illustration d’un segment d’EMG contaminé par du bruit blanc additif. Tracé
supérieur : segment d’EMG. Axe des abscisses en nombre de points. Tracé inférieur : spectre
associé. Axe des abscisses en Hz. Axes des ordonnées en unités arbitraires.
Rejet et Classification 87

Avant de faire le calcul des paramètres sur le spectre EMG, il est donc nécessaire de trouver une
méthode d’élimination du bruit pour obtenir ensuite une bonne estimation de ces paramètres.
Dans ce problème de dé-bruitage on suppose que le bruit est un bruit additif blanc, soit
y (n ) = EMG ( n) + b (n ) avec y(n) le signal observé, EMG(n) le signal EMG utile et b(n) un bruit
blanc additif. Cette hypothèse se justifie par l’observation des signaux réels. En effet, dans la
plupart des cas on observe des spectres du type de celui présenté sur la figure 4.2, où un niveau
d’énergie résiduelle reste présent à des fréquences pour lesquelles l’énergie de l’EMG est
pratiquement nulle (figure 4.1).

4-3-2 Elimination par estimation moyenne du bruit

La méthode la plus intuitive consiste à effectuer une soustraction spectrale de façon à diminuer
l’influence du bruit dans le calcul des paramètres spectraux. On considère que le bruit est blanc
additif non corrélé avec le signal. Le problème reste l’estimation de ce bruit. Dans le traitement
de la parole, le bruit est estimé soit durant les périodes de silence, soit à l’aide d’un second
microphone [Boi00]. Ici nous ne disposons pas de tels enregistrements, et l’estimation du bruit
ne peut se faire qu’à partir du signal observé :
y (n ) = EMG ( n) + b (n ) (4.11)
avec :
- EMG(n) signal EMG
- b(n) bruit blanc additif

On retrouve bien évidemment les propriétés additives dans le domaine de Fourier, ainsi sur le
DSP lorsque signal et bruit ne sont pas corrélés :
S y ( f ) = S EMG ( f ) + B( f ) (4.12)

Si on arrive à estimer B(f), on peut obtenir :


^ ^
S EMG ( f ) = S y ( f ) − B ( f ) (4.13)
^
L’examen de cette formule montre qu’elle peut mener à des valeurs négatives de S EMG ( f ) . La
solution la plus simple, souvent utilisée dans le traitement de la parole, est de mettre à zéro les
^
parties négatives. Pour estimer B( f ) , la méthode que nous proposons est la suivante :
88 Rejet et Classification

- On effectue un lissage du spectre (par moyenne mobile).


- On estime ensuite la valeur du bruit comme étant le minimum de la valeur du spectre entre
250 et 350 Hz .
- On abaisse alors la valeur du spectre de cette quantité en mettant à zéro les parties négatives.

Cependant, dans la chaîne d’acquisition utilisée lors des expérimentations, un filtrage passe haut
à 20 Hz était appliqué (Butterworth d’ordre 2). Au lieu d’abaisser le spectre sur toute la gamme
de fréquences (de 0 à 420 Hz) nous avons utilisé le module de la fonction de transfert de ce filtre
^
comme estimation du bruit B( f ) , l’amplitude en bande passante étant définie comme
précédemment.

L’existence d’une filtrage sélectif à 50 Hz influe également sur ’lestimation de la médiane.


Aussi nous avons réalisé une interpolation linéaire des points autour de 50 Hz dans le spectre
final.
Une illustration de cette méthode est donnée sur la figure 4.3.

(a) (b)
FIG. 4.3 – (a) Spectre bruité et estimation du bruit par filtre de Butterworth. (b) Spectre après
réduction de la valeur du bruit et interpolation de la valeur du spectre autour de
50 Hz. Axes des abscisses en Hz, axes des ordonnées en unité arbitraire.

4-3-3 Elimination du bruit par modélisation paramétrique

L’idée est de supposer que le signal est modélisé par un modèle AR noyé dans un bruit blanc
additif.
On a toujours :
Rejet et Classification 89

y (n ) = x (n ) + b( n) (4.14)

x(n) étant un processus AR d’ordre p de paramètres ( a1, a2 ,..., a p ,σ ε2 ) et b(n) un bruit blanc

gaussien de moyenne nulle et de variance σ b2 .

Plusieurs méthodes ont été développées dans la littérature pour estimer la partie AR, éliminer le
bruit, et obtenir un modèle spectral du signal sans bruit.
Une des premières méthodes développées utilise un modèle ARMA, puisqu’un modèle AR
d’ordre p noyé dans un bruit blanc est équivalent à un modèle ARMA(p,p) [Kay88]. On applique
alors une des méthodes d’estimation ARMA [Mar87], puis on peut estimer la variance du bruit.
Cette approche a été appliquée par Tong [Ton75].
La deuxième approche est d’utiliser la technique du filtrage de Wiener adaptatif. On peut alors
utiliser des techniques de type LMS où RLS [Lim78], [Lim79], [Kay88], [Orf90]. D’autres
approches sont également parfois rencontrées comme la méthode récursive développée par
Jitendra utilisant un modèle d’état [Jit86].
Ce type d’élimination de bruit, considérant que le signal est un processus autorégressif noyé dans
un bruit blanc, est appliqué en traitement de la parole [Lim78], [Lim79], [Boi00].
Pour l’appliquer sur un signal EMG, le problème essentiel reste la détermination de l’ordre du
modèle AR qui représente au mieux le signal. Or dans ce cas les critères de sélection d’ordre
classique ne peuvent pas s’appliquer car ils sont construits pour des signaux AR sans bruit
[Tonj75], [Ton76]. Pour cette raison nous avions préféré utiliser la méthode d’estimation
moyenne du bruit décrite dans le paragraphe précédent.

4-3-4 Conclusion
Une première modélisation spectrale reposant sur l’estimation par le périodogramme moyenné a
été retenue pour sa capacité à produire une estimation spectrale dont il est possible de réduire
l’influence d’un bruit blanc additif, et à partir de laquelle les principaux paramètres spectraux
pourront être extraits. C’est donc cette représentation qui sera utilisée ensuite afin d’effectuer
d’abord un rejet des segments ne contenant pas d’EMG, ensuite une extraction de paramètres
significatifs.
90 Rejet et Classification

4-4 Méthode de rejet

4-4-1 Nécessité de rejet

On sait que le spectre EMG recueilli par électrodes de surface présente toujours une allure
similaire dissymétrique (voir figure 4.4). Ses caractéristiques dépendent évidemment de l’ EMG
lui même, mais également de facteurs méthodologiques comme le type d’électrodes, l’intervalle
inter-électrodes, etc. Ce spectre peut être modifié également en fonction d’autres événements
présents dans ’lenregistrement, que ce soit du bruit blanc superposé (voir figure 4.5) ou des
événements externes (voir figure 4.6) (par exemple décollement d’électrodes, bruits superposés
provenant de la plate forme expérimentale etc. ).

FIG. 4.4 – Illustration d’un segment d’EMG « standard ». Tracé supérieur : segment d’EMG.
Axe des abscisses en nombre de points. Tracé inférieur : spectre associé. Axe des abscisses en
Hz. Axes des ordonnées en unités arbitraires.
Rejet et Classification 91

FIG. 4.5 – Illustration d’un segment d’EMG contaminé uniquement par du bruit blanc additif.
Tracé supérieur : segment d’EMG. Axe des abscisses en nombre de points. Tracé inférieur :
spectre associé. Axe des abscisses en Hz. Axes des ordonnées en unités arbitraires.

FIG. 4.6 – Illustration d’un segment d’EMG contaminé par du bruit blanc additif et des artefacts
externes. Tracé supérieur : segment d’EMG. Axe des abscisses en nombre de points. Tracé
inférieur : spectre associé. Axe des abscisses en Hz. Axes des ordonnées en unités arbitraires.

Les quelques exemples des figures 4.4 à 4.6 montrent à l’évidence que, si les spectres
contaminés uniquement par du bruit blanc additionnel peuvent être exploités après correction
(par une procédure d’élimination), il n’en est pas de même pour ceux qui sont également
contaminés par d’autres artefacts. Ces segments, contaminés par des artefacts de natures
diverses, dont le spectre est de ce fait impossible à modéliser, doivent donc être éliminés, Le
paragraphe suivant décrit le procédure de rejet relative à ces segments.
92 Rejet et Classification

4-4-2 Procédure de rejet par distance entre spectres complets et tronqués

4-4-2-1 Principe de la méthode

Dans la littérature il existe beaucoup de définitions de distances spectrales (voir par exemple
[Bas89], [Boi00]). Parmi ces distances, on trouve d’une part les distances calculées sur les
spectres eux mêmes, d’autre part les distances fondées sur une modélisation paramétrique du
spectre. Ces distances trouvent encore une fois un champ d’application privilégié en traitement
de la parole [Boi00].
L’algorithme développé ici pour rejeter les segments non conformes part du principe que
l’essentiel de l’énergie du spectre d’un EMG est concentré dans une bande de fréquence
inférieure à 200 Hz. L’idée est alors de mesurer la distance entre le spectre complet et le spectre
réduit à une bande basse fréquence.
Les spectres sont estimés par la méthode de Welsh, et la distance calculée n’est rien d’autre que
la distance euclidienne entre les déciles du spectre complet et ceux du spectre réduit à une bande
basse fréquence qui, compte tenu de notre connaissance des spectres de l’EMG de surface, a été
prise dans l’intervalle [0, 180Hz]. La justification de ce choix est que les déciles caractérisent
bien un spectre EMG, tout en étant peu sensibles au bruit, et qu’ils ne nécessitent le calcul
d’aucun modèle paramétrique, ni l’application d’aucune normalisation.

Les étapes de la procédure du rejet sont alors les suivantes :


1- Calcul des déciles pour le spectre complet pour chaque segment.
2- Calcul des déciles pour le spectre limité à 180 Hz pour chaque segment.
3- Calcul de la distance euclidienne entre les modèles « déciles » du spectre total et du spectre
tronqué.

Il reste à définir un seuil à partir duquel les segments seront rejetés.


Une première approche de la définition du seuil est manuelle. Elle utilise une projection sur un
plan d’ACP des deux types de spectres, le plan d’ACP étant calculé à partir des spectres réduits
et les spectres complets étant projetés comme individus supplémentaires. Cette projection permet
de définir le seuil de distance de façon manuelle en pointant sur le dernier point admis dans la
classe des segments à conserver.
Rejet et Classification 93

FIG.4.7 – Projection simultanée des spectres complets (o) et des spectres tronqués (+) sur le
premier plan d’ACP.

Cette méthode a donné des résultats satisfaisants tout en faisant apparaître deux limitations :

- La méthode élimine les segments de type EMG avec bruit blanc (la distance entre déciles est
grande) ce qui élimine un certain nombre de segments qui auraient pu être utilisés dans la
phase d’extraction de paramètres après élimination du bruit.
- La définition manuelle du seuil de rejet n’est pas une solution satisfaisante en soi.

4-4-2-2 Prise en compte des segments bruités

Pour résoudre ce problème, l’idée a été d’appliquer la méthode de rejet non pas sur le spectre
estimé par le périodogramme de Welsh, mais sur le pseudo spectre MUSIC. Comme cela a été
décrit précédemment, cette méthode permet d’estimer les pics de fréquence dans le spectre tout
en éliminant le bruit blanc. On applique alors la procédure de rejet sur le pseudo- spectre, ce qui
a pour effet en principe d’éliminer seulement les segments de type EMG fortement bruités par
des événements externes. Les essais réalisés ont bien montré que l’utilisation de MUSIC
améliorait le procédure de rejet dans le sens qu’elle rejetait moins de segments avec bruit blanc.
94 Rejet et Classification

Par contre dans certains cas nous avons observé également une modélisation erronée de la partie
haute fréquence pour des segments normalement à rejeter (voir figure 4.8). De ce fait ces signaux
sont conservés, dégradant ainsi la performance de la classification. Une telle méthode n’est donc
intéressante que lorsque le signal à rejeter contient des pics fréquentiels significatifs dans une
bande de fréquence où le signal est normalement de faible énergie.

FIG. 4.8 – Tracé supérieur : exemple d’un segment fortement bruité. Axe des abscisses en
nombre des points. Tracé intermédiaire : spectre estimé par périodogramme de Welsh. Axe des
abscisses en Hz. Tracé inférieur : pseudo-spectre estimée par MUSIC. Axe des abscisses en Hz.
Les axe des ordonnées sont donnés en unités arbitraires.

4-4-2-3 Détermination automatique du seuil

Pour développer une méthode automatique de seuillage, et n’ayant pas la connaissance de la


distribution statistique des distances définies aux paragraphes précédents, nous avons estimé
cette densité par la méthode des noyaux [Sap90], [Van00]. Cette méthode modélise les classes
^ 1 n x − xi
d’un histogramme par une fonction continue du type : f ( x ) = ∑ K( ) (pour des détails
n.h i=1 h
sur la méthode, voir Annexe C).

Le plus souvent c’est un noyau gaussien qui est utilisé [Van00]. Pour ce qui concerne le choix de
h, théoriquement il fa ut choisir h proportionnel à n −1/ 5 [Sap90], [Van00]. Cependant, en pratique
la valeur de h doit être déterminée empiriquement. Dans [Van00], une étude de simulation pour
Rejet et Classification 95

l’estimation d’une densité gaussienne par la méthode du noyau montre que la densité estimée se
rapproche de la densité théorique pour une valeur de h proche de 5, ce qui nous a conduit à
adopter cette valeur dans notre étude.
Selon la qualité des signaux enregistrés (contamination ou non des enregistrements par des bruits
non modélisables et intervenant à des instant aléatoires), deux formes de densités de probabilités
peuvent être rencontrées, l’une unimodale (figure 4.9 a), l’autre bimodale (figure 4.9 b).

(a) (b)
FIG. 4.9 – Densités de probabilité estimées par la méthode du noyau.(a) Distribution unimodale.
(b) Distribution bimodale. Axes des abscisses : distance entre spectres – Axes des ordonnées :
estimation de la densité de probabilité.

Suivant la forme de la distribution, le seuil est défini de la façon suivante :


• S’il existe un minimum, on recherche cette position qui constitue le seuil, et on rejette tous
les points situés au delà de cette limite.
• S’il n’existe pas de minimum, on rejette tous les segments dont la distance est supérieur à 3
écarts types.

Si cette méthode est séduisante, il faut cependant souligner que son application présente deux
inconvénients : d’une part, dans le cas où la présence de deux (ou plusieurs) classes n’est pas
claire, le rejet élimine certains segments expertisés corrects. D’autre part, si le nombre des
segments est faible, l’estimation de la densité de probabilité est incorrecte.
96 Rejet et Classification

4-4-3 Rejet par modélisation du spectre EMG

4-4-3-1 Introduction

Dans les méthodes précédentes, la connaissance du signal n’était exploitée que de façon partielle,
au moyen de la bande de fréquence principale [0-180 Hz] ou en faisant l’hypothèse d’un
processus AR.
Dans ce paragraphe, l’idée est de modéliser par une fonction analytique la totalité du spectre de
l’EMG à partir de la connaissance que nous avons de sa forme générale.
Le modèle mathématique est calculé en utilisant des techniques de régression. En se fondant
alors sur l’erreur quadratique moyenne entre spectres réels et modèles mathématiques, on peut
ensuite, en utilisant une courbe COR, calculer un seuil sur cette erreur et l’utiliser pour le rejet
automatique des segments fortement bruités, pour lesquels l’ajustement à une forme spectrale
spécifique ne sera pas correct.

4-4-3-2 Modèles du spectre EMG

a) Modèle de Shwedyck

Un modèle analytique de la densité spectrale de puissance d’une signal SEMG a été proposé par
Shwedyck [Shw75] et repris par Merletti [Mer99a]. Il s’exprime sous la forme suivante :

k . f h2 . f 2
S( f ) = (4.18)
( f 2 + f l 2 ).( f 2 + f h2 ) 2

Cette expression dépend de deux paramètres fl et fh (k n’est qu’un facteur de gain).


Ce modèle est utilisé par Merletti pour la génération de signaux simulés afin de tester des
algorithmes sur des signaux de type SEMG dont on contrôle l’ensemble des paramètres
[Mer99a]. L’identification du modèle ne peut par contre pas être réalisée par des méthodes
linéaires, ce qui peut dans certains cas poser des problèmes de convergence (voir Annexe D).
Rejet et Classification 97

b) Modèle exponentiel

Au vu de la forme du spectre SEMG, nous avons proposé comme modèle la forme analytique
suivante :
S ( f ) = β . f γ .e −αf (4.19)
γ
Ce modèle présente un maximum à f max = . La valeur de ce maximum est :
α
Smax = β .( f max ) .e −γ
γ
(4.20)

La forme de la courbe pour γ = 2 est donnée sur la figure 4.11.


Ce modèle présente l’avantage de pouvoir estimer les paramètres α , β , et γ à partir d’une
régression multilinéaire sur Ln( S ( f )) .

FIG. 4. 11 – Forme de la fonction exponentielle entre 0 et 420 Hz

c) Calcul des paramètres des deux modèles

On calcule tout d’abord le spectre de chaque segment d’une façon lissée (en ne calculant que
N=128 points spectraux quelle que soit la taille du segment dont on calcule le spectre) pour
réduire autant que possible la variance du spectre même dans le cas de segments de taille réduite
(au sens de l’application, voir chapitre 5). Les spectres sont normalisés en divisant la densité
spectrale par l’énergie totale du spectre.
98 Rejet et Classification

Le calcul des paramètres a été fait ici par le même algorithme de régression non linéaire pour les
deux modèles (voir Annexe D). Cette méthode étant itérative, la vitesse de convergence (voire la
convergence elle- même) dépend du choix du vecteur de paramètres initial. Ici on peut par
exemple contraindre le modèle initial à passer par le maximum du vrai spectre. Soit (f max , Smax)
ce maximum. Pour le modèle exponentiel, les expressions reliant les paramètres du modèle au
maximum sont très simples si on fait une hypothèse sur la valeur de γ (γ=2). Dans ce cas on peut
2 Smax
voir que α = et β = , et on peut donc partir de ces points pour estimer les
f max ( f max ) 2.e −2
paramètres du modèle.
Par contre pour le modèle de Shwedyck il est difficile de fixer le vecteur initial des paramètres
en partant de cette hypothèse, car le calcul de maximum pour cette expression conduit à des
relations complexes entre les paramètres du modèle et (f max, Smax).
Les figures 4-12 et 4-13 fournissent une illustration des résultats obtenus pour le modèle de
Shwedyck et le modèle exponentiel, respectivement.

FIG. 4.12 – Un exemple de spectre EMG et son modèle de Shwedyck calculé par régression non
linéaire. Axe des abscisses en Hz. Axe des ordonnées en unité normalisée par rapport au
maximum du spectre réel.
Rejet et Classification 99

FIG. 4.13 – Spectre EMG et son modèle exponentiel calculée par régression non linéaire. Axe
des abscisses en Hz. Axe des ordonnées en unité normalisée par rapport au maximum du spectre
réel.

Les figures 4.14 (a) et (b) montrent le comportement des modèles lorsque le spectre de l’EMG
est fortement contaminé par des artefacts externes. On comprend ainsi l’utilisation potentielle de
ces modèles dans le cadre du rejet de segments fortement bruités.

FIG. 4.14 – (a) Spectre fortement bruité et son modèle de Shwedyck. (b) Le même spectre et son
modèle exponentiel. Axes des abscisses en Hz. Axes des ordonnées en unité normalisée par
rapport au maximum du spectre réel.
100 Rejet et Classification

4-4-4 Comparaison des méthodes

Les méthodes décrites précédemment ont été comparées à partir d’une base d’exemples extraits

des signaux réels. Pour cela, 50 segments qualifiés comme segments EMG par des experts et 50

segments fortement bruités ont été sélectionnés à partir d’enregistrements réels. Pour chaque

segment on calcule les paramètres des modèles qui s’ajustent le mieux au spectre réel estimé par

la méthode de Welsh. Puis lissé par moyenne mobile afin d’obtenir pour tous la même résolution

spectrale. Ensuite on calcule pour chacun d’eux l’erreur quadratique moyenne entre spectre réel

et spectre modèle.

Les résultats sont présentés sous forme de courbes COR pour les trois modélisations retenues
(méthode des déciles, modèle de Shwedyck, modèle exponentiel).

FIG. 4.15 – Courbe COR calculée à partir des distances entre spectres complets et tronqués, en
utilisant la modélisation par déciles. Axe des abscisses : probabilité de fausse alarme. Axe des
ordonnées : probabilité de détection. Les valeurs des seuils sont représentées sur quelques
points.
Rejet et Classification 101

FIG. 4.16 – Courbe COR calculée à partir du modèle de Shwedyck et de l’erreur quadratique
moyenne. Axe des abscisses : probabilité de fausse alarme. Axe des ordonnées : probabilité de
détection. Les valeurs des seuils sont représentées sur quelques points.

FIG. 4.17 – Courbe COR calculée à partir du modèle exponentiel et de l’erreur quadratique
moyenne. Axe des abscisses : probabilité de fausse alarme. Axe des ordonnées : probabilité de
détection. Les valeurs des seuils sont représentées sur quelques points.
102 Rejet et Classification

On voit sur les figures 4.15, 4.16 et 4.17 que le modèle exponentiel permet de mieux distinguer
entre segments EMG et segments fortement bruités. Le seuil le plus approprié sur l’erreur
quadratique moyenne est alors de 0.0134.

4-5 Classification phasique / tonique

Pour la classification entre segments phasique et segments toniques, nous avons utilisé une
démarche heuristique tenant compte des caractéristiques spécifiques de l’expérimentation. En
fait deux critères contrôlent la classification d’un segment comme phasique ou non :

- la durée du segment,
- le rapport de puissance moyenne entre ce segment et ses voisins.

Pour ce qui concerne la durée, il paraît très difficile pour un sujet d’avoir une activité phasique
de plus de 10 s. Cette activité correspondrait à une contraction volontaire longue, contraire aux
instructions d’inactivité données au sujet en début d’expérience.

L’algorithme de classification est alors le suivant :


1- On part d’un segment tonique (le premier segment de puissance minimale et de durée
suffisante après segmentation et rejet).
2- Pour le segment suivant, on calcule le rapport de puissance entre ce segment et ses voisins. Si
le segment précédent (déjà classifié) est tonique et si le rapport de puissance entre le segment
courant et le segment précédent est inférieur à un seuil (fixé préalablement par courbe COR
sur une base d’exemples) alors on classifie ce segment comme tonique. Si ce rapport est plus
grand que le seuil et si le segment est de durée faible alors ce segment est classifié comme
phasique dans un premier temps. On calcule ensuite le rapport de puissance entre le segment
courant et le segment suivant. Si ce rapport est également supérieur au seuil alors on est sûr
que ce segment est phasique (énergie importante et durée faible). Dans le cas contraire on
passe au segment suivant et on applique la même procédure jusqu’à redescendre en dessous
du seuil. Si on excède la durée maximale d’une activité phasique alors tous les segments
précédents sont regroupés en un segment tonique unique, sinon on conserve leur
classification phasique.
3- On continue cette procédure jusqu’à la fin de l’enregistrement.
Rejet et Classification 103

La courbe COR reflétant le résultat de cette classification en segments toniques et phasiques a


été construite en prenant 50 exemples de couples de segments toniques / phasiques, et 50
exemples de couples de segments toniques / toniques. La statistique utilisée est le rapport de
puissance entre les deux segments.
On obtient alors la courbe de la figure 4.18. On peut voir sur cette courbe qu’un seuil égal à 2
(1.99) fournira le meilleur compromis pour la classification.

FIG. 4.18– Courbe COR pour la classification des segments phasiques et toniques. Axe des
abscisses : probabilité de fausse alarme. Axe des ordonnées : probabilité de détection. Les
valeurs des seuils sont représentées sur quelques points

4-6 Conclusion

Dans ce chapitre nous avons traité du problème général d’estimation du spectre EMG. Nous
avons vu qu’il était préférable d’utiliser l’estimation du spectre par périodogramme moyenné,
car, dans le cas de signaux EMG ayant un rapport signal sur bruit défavorable, les méthodes
paramétriques AR sont moins performantes. Ensuite nous avons présenté, sous certaines
conditions, une méthode d’élimination du bruit, afin de mieux estimer les paramètres spectraux
des signaux EMG. Plusieurs méthodes de rejet ont été également présentées et discutées. Une
comparaison par courbe COR a montré que la méthode de rejet fondée sur un modèle
exponentiel du spectre EMG était la plus performante. A la fin de chapitre, nous avons présenté
104 Rejet et Classification

un algorithme simple de classification entre segments phasiques et toniques fondé sur des
critères de rapport de puissance et de durée maximale de segments phasiques.
Dans le chapitre suivant, nous allons aborder les résultats obtenus sur les signaux EMG réels
issus des expérimentations décrites au chapitre 1 lorsqu’on leur applique la séquence des
traitements définie dans les chapitres 2 et 3. Nous apporterons également une justification a
posteriori concernant certains des cho ix effectués précédemment, en particulier pour ce qui
concerne le double seuil pour la détection.
Application - Adaptation aux signaux réels 105

Chapitre 5
Application-Adaptation aux signaux
réels

5-1 Introduction

Ce chapitre est consacré à la présentation des résultats après avoir appliqué les algorithmes
développés dans les chapitres précédents sur les signaux réels enregistrés selon le protocole
décrit au chapitre 1. Dans la première partie, nous calculerons les seuils relatifs à la segmentation
pour les différents sujets. Quelques illustrations de segmentation seront présentées à partir de
signaux contenant des changements spectraux et/ou d’énergie.
L’algorithme de rejet et de classification sera appliqué ensuite pour réduire la variance de la
médiane du spectre EMG (paramètre utilisé pour l’ana lyse de la fatigue). L’évolution de la
médiane en fonction du temps sera présentée à la fin de ce chapitre. Une discussion sur les
résultats obtenus sera enfin proposée.

5-2 Résultats de la segmentation

L’algorithme de segmentation a été appliqué sur tous les signaux EMG. Comme cela a été déjà
mentionné dans le chapitre 3, cet algorithme comprend plusieurs étapes :
1- fixer la taille du segment minimal à détecter. Cette taille a été fixée à 200 points (ou
0.238 s). Bien que, dans certains cas, nous ayons observé l’existence de quelques
activités phasiques plus courtes, prendre une valeur trop faible pour N conduit à dégrader
les performances au niveau de l’estimation des paramètres autorégressifs. Ce choix de la
valeur de N (égale à 200) avait déjà été étudié dans des travaux de recherche antérieurs
[Kha99a].
2- Appliquer la procédure de calcul des seuils décrite au paragraphe 3-3-4, en prenant un
ordre de processus autorégressif égal à 20.
106 Application - Adaptation aux signaux réels

3- Appliquer l’algorithme de segmentation sur le signal.

5-2-1 Calcul des seuils de segmentation

5-2-1-1 Information de Kullback-Leibler et choix du seuil

La figure 5.1 (b) montre l’ information de Kullback- Leibler calculée à partir d’un segment de
durée de 926 s présenté sur la figure 5.1 (a). La figure 5.1 (c) présente l’information de
Kullback-Leibler triée en ordre croissant.
Si le seuil choisi correspond à une valeur trop faible de l’information de Kullback-Leibler, alors
le nombre des segments détectés sera trop élevé. Par contre si le seuil choisi est grand alors on
risque d’augmenter la probabilité de non détection.
Compte tenu des caractéristiques du signal EMG et de la taille des fenêtres utilisées pour ce
calcul, on remarque que le nombre de changements présents dans le signal reste toujours bien
inférieur à 15% du nombre total des valeurs calculées de l’information de Kullback-Leibler.
C’est pour cette raison que nous avions choisi au chapitre 3 un seuil de segmentation
correspondant à 85% des valeurs triées de l’information de Kullback-Leibler. Ce choix est
illustré sur la figure 5.1 (c).

(a)

(b)
Application - Adaptation aux signaux réels 107

(c)
FIG. 5.1 – (a) Segment EMG. (b) Répartition de l’information de Kullback-Leibler en fonction
du temps.(c) Information de Kullback-Leibler triée. Axe des abscisses pour (b) et (c) : nombre de
fenêtres. Axes des ordonnées en unité arbitraire.

5-2-1-2 Discussion sur le choix du seuil

Afin de justifier (et éventuellement de moduler) ce choix du seuil à 85% des valeurs de
Kullback-Leibler triées, nous avons étudié l’évolution du nombre des changements détectés en
fonction de la valeur du seuil. Les quatre graphiques de la figure 5.2 illustrent cette évolution du
nombre de segments détectés pour des valeurs des seuils variant autour de 85%. Il est normal que
le nombre de changement diminue quand le seuil augmente, mais le nombre de changement est
stable autour d’un seuil compris entre 80% et 85% des valeurs de l’ information de Kullback-
Leibler triées.
108 Application - Adaptation aux signaux réels

FIG. 5.2 – Evolution du nombre des segments détectés en fonction de la position du seuil déduit
de l’information de Kullback-Leibler pour 4 exemples différents des signaux EMG. Axes des
abscisses : valeurs du seuil (en pourcentage). Axes des ordonnées : nombre de segments
détectés.

5-2-1-3 Discussion sur le choix de KH et KL

KH et KL sont les seuils haut et bas utilisés pour la détection et l’arrêt de l’estimation des
paramètres, respectivement. Au chapitre 3, nous avons montré que la valeur optimale de KL
devait être égale à 1. La valeur de KH, déduite des signaux simulés, était égale à 3. Pour justifier
ce choix a posteriori, nous avons étudié les variations du nombre de segments détectés en
fonction d’une variation des valeurs de KL et KH. Ces deux seuils KH et KL jouent en effet un
rôle important dans la qualité de la détection. La figure 5.3 illustre cette variation du nombre de
segments détectés quand KH augmente pour 3 segments EMG différents (KL = 1). Nous
remarquons que KH = 3 correspond à la première valeur pour laquelle le nombre de segments
détectés se stabilise. La figure 5.4 présente la variation du nombre des segments détectés quand
Application - Adaptation aux signaux réels 109

cette fois KL augmente (K H = 3). Nous remarquons qu’à partir de KL = 1, il y a stabilité de


nombre de segments détectés, bien que cette valeur ne constitue plutôt qu’une limite inférieure.

FIG. 5.3 – Evolution du nombre de segments détectés sur 3 signaux EMG différents, en fonction
de la valeur de KH (K L=1)

FIG 5.4 – Evolution du nombre de segments détectés sur les 3 signaux utilisés sur la figure 5.3
en fonction de KL (pour KH=3).

5-2-1-4 Influence des sujets et des conditions expérimentales sur les valeurs de seuils

Le choix des différents seuils peut à l'évidence être influencé par les conditions expérimentales :
sujet, type de siège, présence ou non de vibrations. L'étude de ces influences a été faite ici sur les
signaux issus du muscle (CES gauche) pour lequel le rapport signal sur bruit était le moins
défavorable, afin de s'affranchir autant que possible du facteur bruit pour l'analyse.
Les tableaux suivants présentent les seuils trouvés sur les sujets ayant des durées suffisantes
d'enregistrements exploitables : FR, FL, MM, PP, JMB, YL.
L'étude a été réalisée pour quatre conditions :
− sans vibrations, siège : L
− sans vibrations, siège : T
− avec vibrations, siège : L
110 Application - Adaptation aux signaux réels

− avec vibrations, siège : T

Les Pi correspondent aux périodes successives des enregistrements (la durée d’expérimentation
était divisée en 7 périodes séparées entre elles par une phase de tests réflexes, cognitifs et
sensoriels) :
− P1 : 0… 20 min
− P2 : 25... 35 min
− P3 : 40… 65 min
− P4 : 70… 85 min
− P5 : 90… 120 min
− P6 : 125... 135 min
− P7 : 140… 160 min

Les résultats du calcul de seuil sont donnés dans les tableaux 5.1 à 5.4. Les valeurs des tableaux
correspondent au calcul du seuil haut d’un sujet donné pour une période donnée.

Sujet P1 P2 P3 P4 P5 P6 P7 Moy. Ecart


type
FR 82 81 77 81 80 78 80 79.8571 1.7728
FL 91 82 75 78 76 76 86 80.5714 6.0514
MM 81 92 83 81 81 81 85 83.4286 4.0766
PP 88 88 85 87 84 83 85 85.7143 1.9760
JMB 81 78 78 83 82 83 82 81 2.1602
YL 79 76 81 80 112* 86 82 85.1429 12.2260

TAB 5.1 – Seuils trouvés pour les sujets retenus pour l'étude à chaque période de
l'enregistrement. Conditions du calcul : expérimentation sans vibration, siège L.
Application - Adaptation aux signaux réels 111

Sujet P1 P2 P3 P4 P5 P6 P7 Moy. Ecart


type
FR 82 78 79 78 79 76 82 79.1429 2.1931
FL 75 90* 82 89 83 73 82 82 6.3770
MM 80 81 82 81 77 77 78 79.4286 2.0702
PP 74 73 72 71 72 71 70 71.8571 1.3452
JMB 80 81 80 87 81 79 90 82.5714 4.1975
YL 76 77 75 79 78 74 77 76.5714 1.7182

TAB 5.2 – Seuils trouvés pour les sujets retenus pour l'étude à chaque période de
l'enregistrement. Conditions du calcul : expérimentation sans vibration, siège T.

Sujet P1 P2 P3 P4 P5 P6 P7 Moy. Ecart


type
FR 110* 96 94 93 97 102 92 97.7143 6.3434
FL 88 78 93 84 88 85 80 85.1429 5.1130
MM 112 112 105 100 106 103 103 105.8571 4.5981
PP 88 86 91 92 88 87 96 89.7143 3.4983
JMB 85 96 92 90 95 92 88 91.1429 3.8485
YL 86 99 92 80 86 86 85 87.7143 6.0749

TAB 5.3 – Seuils trouvés pour les sujets retenus pour l'étude à chaque période de
l'enregistrement. Conditions du calcul : expérimentation avec vibration, siège L.
112 Application - Adaptation aux signaux réels

Sujet P1 P2 P3 P4 P5 P6 P7 Moy. Ecart


type
FR 112* 100 98 89 89 90 81 94.1129 10.0901
FL 84 86 75 76 78 73 76 78.2857 4.8550
MM 99 85 94 94 93 96 92 93.2857 4.3095
PP 89 89 89 81 85 90 84 86.7143 3.4017
JMB 82 81 87 78 82 78 90 82.5714 4.4668
YL 89 102 89 97 118 106 89 98.5714 10.9675

TAB 5.4 – Seuils trouvés pour les sujets retenus pour l'étude à chaque période de
l'enregistrement. Conditions du calcul : expérimentation avec vibration, siège T.

Ces résultats montrent tout d'abord une bonne homogénéité dans les seuils calculés par cette
procédure. Ceci signifie que tous les signaux EMG de tous les sujets ont, de ce point de vue, des
caractéristiques similaires, ce qui tendrait à montrer qu'il n'est pas nécessaire de calculer autant
de seuils que de sujets.
On remarque par contre une différence dans les valeurs des seuils selon la présence ou non de
vibration. Ceci est justifié en faisant une étude ANOVA sur les données suivant, qu’il y a
vibration ou non. Cette étude donne les résultas présentés dans le tableau 5-5.

Source de Somme des Degrés de Carré Moyen F Probabilité>F


variation carrés liberté
Expliqué 4453.72 1 4453.72 74.25 5.21805.10-15
Résiduelle 9957.27 166 59.98
Totale 14410.99 167

TAB 5.5 – Résultats de l’analyse de variance sur le seuil en fonction de la présence ou non de
vibrations.

Il est clair que l’hypothèse selon laquelle il y a une différence dans les valeurs des seuils selon la
présence ou non de vibration peut être retenue.
En pratique, on utilisera comme seuil la valeur moyenne des seuils des tableaux correspondants
(79 en l’absence de vibrations, 92 en présence de vibrations ).
Application - Adaptation aux signaux réels 113

Donc :
− Seuil haut = 79 pas de vibration
− Seuil haut = 92 avec vibration
− Seuil bas = 26 pas de vibration
− Seuil bas = 30 avec vibration

Enfin nous remarquons une différence des valeurs des seuils pour certaine périodes
d’expérimentation et pour un même sujet (* dans le tableau). L'observation des segments
correspondants montre que ces valeurs correspondent en fait à des segments fortement bruités.

5-2-2 Exemples de segmentations

La figure 5.5 montre quelques exemples de segmentation sur un signal EMG, pour trois périodes
d’expérimentation différentes.

FIG. 5.5 – Trois exemples de segmentation sur des signaux EMG. Axes des abscisses en
secondes, axes des ordonnées en unité arbitraire.
114 Application - Adaptation aux signaux réels

La figure 5.6 montre l'agrandissement d’une partie du signal, illustrant la détection de


changements d’énergie.

FIG. 5.6 – Agrandissement sur des zones spécifiques. Axes des abscisses en secondes, axes des
ordonnées en unité arbitraire.

La figure 5.7 montre 2 segments successifs de même variance détectés par l'algorithme. On voit
bien que la segmentation est cette fois justifiée par un changement du contenu fréquentiel.
Application - Adaptation aux signaux réels 115

FIG. 5.7 – Exemple de deux segments successifs détectés par l'algorithme, associés à leur
densité spectrale de puissance. Tracés supérieurs : les deux segments détectés. Axes des
abscisses en nombre de points, axes des ordonnées en unité arbitraire. Tracés inférieurs : DSP
en unité arbitraire (axes des abscisses en Hz).

5-3 Résultats de la procédure de rejet


Le test de rejet est fondé sur la valeur de l’erreur quadratique moye nne entre le spectre d’un
segment et le modèle exponentiel décrit au chapitre 4. Ce test a été appliqué sur les signaux réels
après segmentation.
Les performances de la procédure de rejet ont été mesurées par la comparaison entre les
segments rejetés par l'algorithme et le rejet effectué par un expert, en utilisant les mêmes signaux
que pour l'étude des seuils.
Les résultats de rejet et de taux de segments mal classés sont présentés dans le tableau 5-6.
Configurations Nombre de Nombre de Pourcentage Remarques
d’expérimentations segments segments mal de mal rejetés
détectés rejetés
Avec vibration, siège 1051 52 5.6 % Sujets : FR, FL,
L MM
Avec vibration, siège 1017 51 5.01% Sujets : FR, FL,
T MM
Sans vibration, siège 1151 69 5.99 % Sujets : FR, FL,
L MM
Sans vibration, 1276 82 6.4 % Sujets : FR, FL,
siège T MM
TAB 5-6 : résultat du rejet de segments bruités. Comparaison entre algorithme et expertise.
116 Application - Adaptation aux signaux réels

Nous pouvons déduire de ces valeurs que l’algorithme de classification développé donne des
résultats convenables. Il permet de bien sélectionner les segments EMG selon leurs spectres. Le
taux de mal classés est dû à deux raisons principales :
- les segments présentant des artefacts mécaniques sont dans certains cas classifiés comme des
segments EMG (bande de fréquence dans la bande BF de l'EMG)
- les segments de courte durée présentent parfois une mauvaise estimation spectrale et sont
parfois rejetés à tort.

La médiane étant un paramètre important pour l'analyse de l'évolution de l'EMG, nous avons
illustré l'efficacité de la méthode de rejet en traçant la médiane pour chaque segment détecté
avant (figure 5.8 (a)) et après le rejet (figure 5.8 (b)) pour une période donnée. La largeur des
barres du tracé correspond à la durée de chaque segment.
Nous remarquons que les segments dont la médiane était très grande ont bien été éliminés. Par
contre, quelques segments pour lesquels la médiane était trop faible (artefacts mécaniques) ont
été conservés.

(a) (b)
FIG. 5.8- Exemple d’évolution de la médiane pour une période d’expérimentation avant (a) et
après rejet(b). Axes des abscisses en secondes, axes des ordonnées en Hz.

5-4 Classification des activités toniques et phasiques

Le test de rejet a permis de sélectionner les segments contenant une activité EMG "e xploitable"
parmi tous les segments détectés dans les signaux réels. Les segments sélectionnés contiennent
cependant à la fois des activités toniques utiles à l'analyse et des activités phasiques
Application - Adaptation aux signaux réels 117

correspondant aux mouvements et co-contractions. Le but de la classification est donc de séparer


ces deux activités pour pouvoir appliquer l'analyse d'inconfort uniquement sur l’activité tonique.
Ce test, fondé sur le rapport des variances locales et la duré de segment, a été décrit au
paragraphe 4-5.

FIG. 5.9 – Exemple d’un résultat de classification. Axe des abscisses en secondes, axe des
ordonnées en unité arbitraire.
La figure 5.9 montre un exemple de classification qui a permis de sélectionner les segments
correspondant à des activités toniques.
Les performances en classification ont été mesurées par la comparaison entre la classification
obtenue par l'algorithme et l'étiquetage effectué par un expert, en utilisant les mêmes signaux que
pour l'étude des seuils. Le tableau 5-7 présente les résultats de classification entre segments
toniques et phasiques.
118 Application - Adaptation aux signaux réels

Configurations Nombre des Nombre des Pourcentage Remarques


d’expérimentations segments segments mal de mal
détectés classés classés
Avec vibration, siège 650 7 1.07 % Sujets : FR, FL,
L MM
Avec vibration, siège 595 7 1.177% Sujets : FR, FL,
T MM
Sans vibration, siège 634 17 2.68 % Sujets : FR, FL,
L MM
Sans vibration, 645 15 2.32 % Sujets : FR, FL,
siège T MM

TAB 5-7 : résultat de la classification entre segments toniques et segments phasiques.


Comparaison entre algorithme et expertise.

Nous avons obtenu une bonne classification par l’algorithme, grâce en particulier à la différence
nette entre activités toniques et phasiques en termes de variation de puissance.

5-5 Evolution des paramètres spectraux

Le but final de l’étude est l'analyse de l’évolution fréquentielle des signaux au cours de
l'expérimentation, afin de déceler une éventuelle induction de fatigue attestée par une
compression spectrale. Cette évolution est ici analysée au travers de la valeur de la médiane
spectrale, dont il a été montré auparavant qu'elle était peu sensible au bruit, et donc largement
utilisée comme indicateur dans les travaux relatifs à la fatigue musculaire. Les méthodes de rejet
et de classification nous ont permis de ne sélectionner que les activités toniques. Il reste à
calculer l’évolution de la médiane pendant toute la durée d’expérimentation et pour les 4
situations : avec et sans vibration, siège T et L.
La figure 5.10 illustre l’évolution de cette fréquence médiane pour tous les segments toniques et
pour un des sujets (sujet Mm) et cela pour les quatre conditions expérimentales :
− Siège L sans vibration, figure 5.10 (a)
− Siège T sans vibration, figure 5.10 (b)
Application - Adaptation aux signaux réels 119

− Siège L avec vibration, figure 5.10 (c)


− Siège T avec vibration, figure 5.10 (d).

(a) (b)

(c) (d)
FIG. 5.10 – Evolution de la fréquence médiane durant une phase complète d’expérimentation,
pour les 4 configurations : (a) siège L sans vibration (b) siège T sans vibration (c) siège L avec
vibration (d) siège T avec vibration. Axes des abscisses en seconde, axes des ordonnées en Hz.

Cet exemple montre une grande variabilité de la médiane, malgré l'élimination des segments trop
bruités, la réduction du bruit dans les segments conservés et l'élimination des segments
phasiques. Si la médiane semble parfois évoluer à l'intérieur d'une période, il n'apparaît aucune
tendance globale dans le sens d'une compression spectrale au fur et à mesure du déroulement du
test.
Afin de disposer d'une vue plus globale sur l'évolution de la médiane en fonction des conditions
expérimentales, nous avons calculé, pour chaque expérimentation exploitable et pour le muscle
déjà sélectionné pour les tests précédents (CES gauche), une régression linéaire sur l'ensemble
des valeurs de médiane. Nous avons représenté ensuite chacune des expérimentations par un
120 Application - Adaptation aux signaux réels

point dans un plan ordonnée à l'origine vs. pente de la droite de régression. Ce calcul de
régression n'a été mené que pour les enregistrements pour lesquels le nombre de segments restant
après rejet et classification était suffisant. Le résultat, présenté sur la figure 5.11, est très clair :
− en ce qui concerne les pentes, elles se distribuent autour de zéro. Le test sur le coefficient de
R
corrélation n − 2 → Tn− 2 ne retient que 7 corrélations significatives sur les 26
1− R2
signaux testés (p<0,05), et pour les signaux conservés, 2 pentes seulement sont négatives,
sans que cela soit relié d'une façon quelconque à une configuratio n expérimentale
particulière.
− de même il n'apparaît aucune classe particulière reliée à une configuration expérimentale
spécifique.

Ce résultat final montre que, quelque soit le soin apporté aux différents traitements appliqués aux
signaux EMG posturaux considérés ici, il n'apparaît aucune évolution spectrale significative au
cours d'une expérimentation d'inconfort de longue durée.
D'autre part il n'apparaît aucune classe en lien avec une condition expérimentale spécifique.

FIG-5.11- Représentation de l'ordonnée à l'origine en fonction de la pente de la régression pour


les différentes configurations d’expérimentation et pour les enregistrements utilisables. + : siège
L sans vibration, * : siège T sans vibration, o : siège L avec vibration, x : siège T avec vibration.
Axe des abscisses en Hz.s-1 , axe des ordonnées en Hz.
Application - Adaptation aux signaux réels 121

Ce résultat final montre que, quelque soit le soin apporté aux différents traitements appliqués aux
signaux EMG posturaux considérés ici, il n'apparaît aucune évolution spectrale significative au
cours d'une expérimentation d'inconfort de longue durée.

5-6 Discussion des résultats et conclusion

Dans ce chapitre ont été présentés les résultats de l’application de notre méthodologie sur les
signaux EMG acquis dans le cadre d'expérimentations pour l’étude de l’inconfort lors d’une
conduite de longue durée.
La segmentation a donné des résultats efficaces pour la détection de la variation des signaux en
énergie et en fréquence, ce qui nous a permis de détecter les différents activités présentes dans
les signaux (activité toniques, phasiques ou bruits). La procédure du choix de seuil a montré
l'indépendance de cette valeur de seuil vis à vis des sujets, ce qui permet de ne pas recalculer ce
seuil sujet par sujet. Cependant cette valeur de seuil restait dépendante des conditions
expérimentales.
Par contre l’algorithme présente encore quelques limitations. La première est qu’il est incapable
de détecter les segments de durée très petite (moins de 0.238 s). Cette limitation ne concernait
que très peu l'application traitée puisque seuls les segments toniques (longs) étaient analysés.
L'influence de phases différentes très courtes dans ces segments était donc très réduite.
Cependant, si de tels segments sont importants pour l'analyse de signaux dans d'autres contextes,
il sera nécessaire de développer un algorithme spécifique pour la détection de ces segments de
durée très courte. La seconde limitation réside dans le fait que l’algorithme n'a été testé (surtout
pour ce qui concerne la procédure du choix des seuils) que sur des signaux EMG. Il serait utile
de valider également l’algorithme en faisant des tests sur d'autres types de signaux. Les signaux
de parole semblent être de bon candidats pour cette évaluation dans la mesure où leurs
caractéristiques diffèrent notablement de celles des EMG.
Pour ce qui concerne le rejet, l’algorithme développé donne des résultats satisfaisants, bien que
dans certains cas (cas de quelques activités mécaniques dues aux vibrations qui interfèrent avec
les signaux EMG aux basses fréquences) le rejet utilisant un modèle analytique de spectre ne
fonctionne pas. Nous nous trouvons au niveau spectral dans le même type de difficulté que pour
des activités courtes du domaine temporel. Ici, ce sont des bandes de fréquences étroites qui sont
concernées, et qui ne suffisent pas à créer une erreur d'ajustement suffisante, alors qu'elles
122 Application - Adaptation aux signaux réels

risquent malgré tout de perturber l'estimation des paramètres spectraux comme la médiane et
surtout les déciles.
L’algorithme de classification donne également des bons résultats. Cependant nous n'avons pas
insisté sur cette part de la procédure dans la mesure où l'algorithme est adhoc, adapté uniquement
aux signaux traités ici. Il ne présente donc aucun caractère de généricité.
Pour l'analyse finale liée au problème de l’inconfort, et à partir des remarques initiales sur les
activités respectives des différents muscles nous avons mis en évidence le fait que les muscles
les plus informatifs en matière d’activité électromyographique liée à la posture étaient les
muscles du cou. Nous avons alors d'abord limité l'étude aux signaux issus de ces muscles. Nous
étant placés ainsi dans les meilleures conditions, c'est à dire celles pour lesquelles la survenue
d'un inconfort devait être la plus marquée, nous n'avons pu mettre en évidence aucune évolution
spectrale spécifique. Ceci met en évidence soit l’inaptitude du signal EMG à traduire
objectivement un inconfort local dans les conditions expérimentales de l'étude, soit le fait qu'un
ressenti d'inconfort ne se traduit pas nécessairement au niveau local par une modification des
caractéristiques du signal de commande électrique musculaire.
Nous n'avons malheureusement pas les éléments suffisants pour conclure en faveur de l'une ou
l'autre hypothèse. Nous pouvons simplement remarquer que, lorsqu'à l'intérieur d'une même
période les variations de médiane sont significatives (souvent vers une compression spectrale), la
valeur initiale de la médiane à la période suivante correspond souvent à une discontinuité. Cette
remarque, dont il faut cependant reconnaître qu'elle est purement qualitative, laisse malgré tout à
penser que les interruptions entre les périodes, nécessaires aux autres tests (en particulier
sensoriels), perturbent de façon importante la mise en place d'un processus de fatigue. En effet le
sujet est actif durant ces phases intermédiaires, permettant ainsi un "lessivage" des muscles
similaire à une remise à l'état initial.
Conclusion 123

Conclusion
L’analyse et l’étude de l’inconfort à partir des signaux SEMG de longue durée nécessitent un
traitement adapté, pour tenir compte du caractère très spécifique de ces signaux, concernant en
particulier une durée importante et un rapport signal sur bruit très défavorable. C’est sur cette
base qu’ont été développées toutes les méthodologies de ce travail.

Le chapitre 1 a commencé par une présentation générale du problème étudié et du protocole


d’expérimentation. Dans ce chapitre nous avons justifié la nécessité d'une segmentation du signal
par des algorithmes locaux fo ndés sur des méthodes pour lesquelles nous n'avions pas de
connaissance a priori des caractéristiques des différents segments composant le signal. La
présence d'activités qui ne sont pas des activités toniques, objets de l'analyse, a justifié la
nécessité de mettre en place des procédures automatiques de rejet et de classification.
La quantité des donnés à traiter rend impossible toute intervention d’un expert obligé d'étiqueter
les différents segments en balayant l'ensemble du signal, ce qui a justifié le développement de
procédures de traitement spécifiques, automatiques et rapides.

Le chapitre 2 était consacré à la présentation des différents algorithmes de détection et de


segmentation des signaux. Pour cela nous avons pris comme point de départ l’algorithme
séquentiel de détection dans le cas de paramètres connus (CUSUM), puis nous avons présenté
l’algorithme DCS. Mettant en évidence les limitations de DCS, nous avons proposé deux
modifications concernant cet algorithme, en modifiant la taille des fenê tres permettant
l'estimation des paramètres et en utilisant une technique de double seuillage. Par des études en
simulation utilisant des courbes COR, nous avons pu conclure que le nouvel algorithme (MDCS)
était plus performant que DCS.

L’ajustement et l’adaptation des paramètres des algorithmes ont été présentés dans le chapitre 3.
Parmi ces paramètres il y a ceux qui concernent l’algorithme MDCS lui même, les paramètres
d’estimation des processus AR ainsi que le choix de l’ordre de ces processus. Pour l' estimation
des paramètres des processus AR c'est la méthode de covariance qui a été finalement retenue, et
un ordre de 20 a été choisi pour la modélisation.
124 Conclusion

Une méthode originale de calcul des seuils a ensuite été présentée dans ce chapitre. Elle est
fondée sur le calcul de la distribution de l’information de Kullback- Leibler dans le signal. Nous
avons pu constater ensuite que la valeur obtenue sur le seuil était indépendante du sujet mais
variait en fonction des conditions expérimentales.

Dans le chapitre 4, nous avons traité le problème de l’estimation du spectre EMG. Nous avons
indiqué les raisons qui nous conduisaient à utiliser le périodogramme de Welsh pour cette
estimation. Trois méthodes de rejet ont été testée. La première était fondée sur la distance entre
spectre complet et spectre tronqué, les deux autres étant fondées sur l’ajustement de modèles
analytiques sur le spectre EMG. Une comparaison par courbe COR entre ces méthodes a permis
de choisir la méthode reposant sur un modèle exponentiel du spectre proposé dans le cadre de ce
travail. La présence d’un bruit blanc additif dans les signaux conservés nous a ensuite conduit à
proposer une méthode d’élimination de ce bruit afin de mieux estimer les paramètres spectraux.
Pour terminer, nous avons proposé une méthode ad hoc de classification entre segments
phasiques et segments toniques.

Le chapitre 5 a montré les résultats obtenus après avoir testé les méthodes sur l'ensemble des
signaux EMG exploitables. Nous avons exploité les courbes d'évolution de la fréquence médiane
en fonction du temps. Les résultats sont encourageants du point de vue de la détection des
changements fréquentiels et d'énergie. L’algorithme s'est également montré très efficace sur le
plan de la rapidité grâce à la possibilité d'en rendre récursives certaines étapes.

L’étude de l’évolution de la médiane pour les différents sujets et pour les quatre configurations
expérimentales n'a pas permis d'observer d’évolutions significatives quelles que soient les
conditions expérimentales. Compte tenu du soin pris afin de n'extraire des signaux que des
informations pertinentes, cette inaptitude du signal EMG postural à traduire un inconfort
ressenti, qu’il soit local ou global, tendrait à montrer que cet inconfort n'est pas lié à une
modification (une fatigue) du muscle lui- même.

Sur le plan méthodologique, cette recherche a permis de mettre au point une séquence
automatique de traitements bien adaptés à des signaux longs de faible rapport signal sur bruit.
Deux limitations subsistent cependant pour cet algorithme. La première est qu’il est incapable de
détecter les événements de courte durée, et la deuxième est qu’il est limité à la détection de
changements brusques.
Conclusion 125

La première limitation ne pourra être levée à notre sens que par l'application en parallèle
d'algorithmes spécifiques à la détection de phénomènes transitoires. La seconde implique de se
tourner vers des représentations mieux adaptées à l'analyse de signaux non stationnaires. Des
études utilisant les ondelettes pour la représentation des signaux ont déjà été menées. Une
approche combinant théorie des ondelettes et théorie de la détection pourrait alors être envisagée.

D’autres perspectives sont liées au choix des paramètres utilisés pour suivre l’évolution de la
fatigue où d’autres phénomènes physiologiques à partir des signaux EMG, l'idée étant de
rechercher des indicateurs beaucoup moins sensibles au bruit. Il s'agirait alors de trouver des
indicateurs d'activité électromyographique, reliés par exemple au nombre d'unités mo trices
recrutées et non plus à des caractères globaux, temporels ou spectraux, du signal enregistré.
126
127

Annexe A
Information de Kullback-Leibler -
Cas de deux modèles AR
L’information de Kullback- Leibler joue une rôle important en probabilité et en statistiques
[Bor87], [Bas93], [Van98]. En effet cette information est utilisée comme index de détectabilité
dans les algorithme de détection. Elle sert également comme une distance entre deux signaux
pour la classification [Bas89] Elle est enfin utilisée dans des applications de traitement de parole
[Gra76].
Par définition [Bor87], [Bas93] l’information de Kullback-Leibler entre deux densités de
probabilité f θ0 et f θ1 d’un variable aléatoire x est donnée par :

f θ0 ( x )
K (θ 0 , θ1 ) = ∫ ln fθ 0 ( x ) dx (A.1)
f θ1 ( x)

De même :
f θ1 ( x)
K (θ1 ,θ 0 ) = ∫ ln fθ1 ( x ) dx (A.2)
fθ 0 ( x )

L’information de Kullback- Leibler est nulle lorsque θ1 =θ0 .


Prenons d’abord le cas de deux densités de probabilité f θ0 et f θ1 qui représentent les densités de

probabilité d’une variable aléatoire gaussienne de moyenne nulle et de variances σ 02 et σ 12 .


Il est très facile de démontrer que :

1 σ2 σ2
K (θ 0 ,θ 1) = [ln 12 + ( 02 − 1)] (A.3)
2 σ0 σ1
et que :
1 σ2 σ2
K (θ1, θ 0 ) = [ln 02 + ( 12 − 1)] (A.4)
2 σ1 σ0

Le cas le plus fréquent est celui de l’information de Kullback-Leibler entre deux densités de
probabilité conditionnelles pour deux processus de modèles AR d’ordre p et de paramètres :
128

θ 0 = ( a10 , a20 ,..., aP0 , σ 02 )


et
θ1 = ( a11, a12 ,..., a1P , σ12 )
Asymptotiquement, ces informations sont définies par [Bas93] :

1 n f θ1 ( x j / X jj−−1p )
K (θ 0 , θ1 ) = − lim Eθ0 [ si ] = − lim ∫ ∑ ln j −1
fθ 0 ( x j / X jj−−1p )dX jj−−1p (A.5)
i →∞ n →∞ n fθ 0 ( x j / X j− p )
j =1

1 n f θ1 ( x j / X jj−−1p )
K (θ 0 , θ1 ) = lim Eθ1 [ s i ] = lim ∫ ∑ ln j −1
f θ1 ( x j / X jj−−1p )dX jj−−1p (A.6)
i →∞ n→ ∞ n f ( x / X )
j =1 θ0 j j −p

D’après [Bas83a], [Bas93] on a :


1 σ 12 σ 02 ∞
K (θ 0 , θ1 ) = [−1 + ln 2 + 2 (1 + ∑ ( c1k / 0 ) 2 )] (A.7)
2 σ0 σ1 k =1

1 σ2 σ2 ∞
K (θ1, θ 0 ) = [−1 − ln 12 + 12 (1 + ∑ ( ck0/1 ) 2 )] (A.8)
2 σ0 σ0 k =1

Les c1k / 0 représentent les coefficients du développement de Taylor de la fraction


p

A1 ( z ) 1 + ∑ a1n .z − n
polynomiale = n =1
p
, les ck0 /1 représentent les coefficients du développement de
A0 ( z) 1 + ∑ a 0 .z − n
n
n =1

A0 ( z) 1 + ∑ an0 .z − n
Taylor de la fraction polynomiale = n =1
.
A1 ( z ) 1 + ∑p a1 .z − n
n
n =1

avec :
p
Al ( z ) = 1 + ∑ aln .z − n , l = 0,1 (A.9)
n =1

En général ces divisions polynomiales conduisent à des sommes infinies, mais en pratique (en
traitement de parole par exemple ) on peut limiter la division jusqu’au 2.p [Gra76], [Bas83a],
[Bas89].
A( z )
Pour calculer les coefficients de Q( z ) = jusqu’au le degré L, l’algorithme en Matlab est :
B( z )
function Q=divpoly(A,B,p,L)
Ap=zeros(L+1,1);
Ap(1:p)=A;
for n=1:L
Q(n)=Ap(n);
129

for j=n:n+p-1
Ap(j)=Ap(j)-Q(n)*B(j- n+1);
end
end

En utilisant cet algorithme on peut calculer les coefficients ck0 /1 puis calculer l’information de
Kullback-Leibler par (A.9) en se limitant à L=2.p.
130
131
132

Annexe B
Equations de Levinson
L’algorithme de Levinson nous permet de calculer d’une façon récursive sur l’ordre les
paramètres d’un processus AR d’ordre p.
Le développement de cet algorithme est classique dans la littératures [Mar87], [Kay88], [Orf90],
[Kun91], aussi nous ne donnons dans cette annexe que les équations de récursivité directes et
inverses qui relient les paramètres de prédiction du processus calculée à un ordre p aux
paramètres de prédictions de ce même processus calculés à une ordre p+1, et inversement.

Les paramètres de prédiction du signal à l’ordre p seront notés par ( a1( p) , a2( p ) ,..., a (pp ) , σ (2p) ) , leur

polynôme correspondant étant :

p
Ap ( z ) = 1 + ∑ an( p ) . z −n (B1)
n =1

σ (2p) est la variance de l’erreur de prédiction à l’ordre p.

On définit le polynôme inverse par :


ARp ( z ) = z − p . Ap ( z −1 ) (B.2)

On peut alors écrire l’équation de Levinson directe [Orf90] d’une façon matricielle comme suit :

 Ap+1 ( z )   1 − K p +1. z −1   Ap ( z ) 
 = . R (B.3)
 ApR+1 ( z )   K p +1 z −1   A ( z)
    p 
K p+1 est le coefficient de réflexion à l’ordre p+1, définie par :

R( p + 1) + a1( p) .R( p) + ... + a (pp ) .R(1)


K p+1 = (B.4)
σ (2p)
On a aussi la relation qui relie les variances des erreurs de prédiction :

σ (2p+1) = (1 − K 2p+1).σ (2p) (B.5)

A partir de ces équations on peut donc relier les paramètres de prédiction d’un processus prédit à
l’ordre p+1, à ceux prédits à l’ordre p.
133

L’équation de Levinson inverse qui permet de passer dans le sens inverse est :
 Ap−1 ( z )   1 K p   Ap ( z ) 
 = 1  .  (B.6)
 Ap−1 ( z )  1 − K 2p
R
 K p .z z   ARp ( z ) 
 
1
σ (2p−1) = .σ (2p) (B.7)
(1 − K p )
2

A l’aide de ces équations on peut donc obtenir pour un processus AR d’ordre p, les paramètres
de prédiction de ce processus à l’ordre p-1 ( et on peut continuer jusqu’à n’importe quel ordre
q<p).
134

Annexe C
Méthode de noyau pour l’estimation
de densité spectrale de puissance
Une des estimations possibles de la densité de probabilité peut se faire par l’histogramme..
La détermination du nombre de classes d’un histogramme est délicate et on ne dispose pas de
règles objectives pour le définir. Un trop faible nombre de classes fait perdre de l’information et
aboutit à gommer les différences pouvant exister entre des groupes de l’ensemble étudié. En
revanche un trop grand nombre de classes aboutit à une très mauvaise estimation locale de la
densité de probabilité.
On peut d’ailleurs critiquer le fait de représenter par une fonction en escalier la distribution d’une
variable continue : l’histogramme est une approximation assez pauvre d’une fonction de densité
et il serait plus logique de chercher une fonction plus régulière.
La théorie de l’estimation de densité permet de proposer des solutions à ce problème. La
méthode du noyau a été spécifiquement conçue pour résoudre ce type de problème. Considérons
tout d’abord le cas d’histogrammes à classes d’égale largeur h. L’histogramme aboutit à estimer
la densité de probabilité de X au point x par (n i / n.h ) si x appartient à la ième classe de
l’histogramme. La densité est donc la même quelle que soit la position de x entre les extrémités
de cette classe.
Une première amélioration consiste à utiliser la méthode de la « fenêtre mobile » : on construit
autour de x une classe de longueur h : I x = [ x − h / 2; x + h / 2[ et on compte le nombre

d’observation nx appartenant à cette classe. On estime alors f (x ) par n x / n.h et on peut


^
construire point par point une courbe de densité estimée f ( x ) .
^
On peut remarquer alors que f ( x ) vérifie la formule générale :
^ 1 n x − xi
f (x ) = ∑ K( ) (C.1)
n.h i=1 h
où K est la fonction indicatrice de l’intervalle [−1 / 2,1 / 2[ :
135

 1 1
 0 si u ≥ ou u <
2 2
K ( u) =  (C.2)
1 si - 1 ≤ u < 1
 2 2
x − xi
K( ) vaut donc 1 si xi ∈ I x .
h
^
f ( x ) est donc une moyenne arithmétique de fonctions donnant à chaque observation xi un poids
1/h si elle appartient à l’intervalle Ix , 0 sinon.
^
Cette méthode donne cependant une estimation f ( x ) peu régulière. Pour obtenir une fonction
suffisamment « lisse », il est alors possible de généraliser la formule précédente en prenant pour
K (le noyau) une autre expression, en général une densité symétrique. En Pratique
[Sap90][Van00][Fuk90] on utilise fr équemment un noyau gaussien

1 − 12 u 2
K (u ) = e (C.3)

La constante h, appelée constante de lissage (ou aussi «bandwidth »), joue un rôle important
^
analogue à celui de la largeur des classes de l’histogramme : si h est faible f ( x ) sera très peu
^
régulière, si h est grand f ( x ) très lissé.
−1
5
Bien que l’on sache que h doit être théoriquement proportionnel à n [Sap90], [Van00] sa
valeur « optimale » se détermine en fait expérimentalement [Sap90], [Van00].
Dans [Van00] il est démontré que l’estimation d’une densité probabilité d’un échantillons issue
d’une loi normale pour un nombre d’échantillons de 15 par la méthode de noyau sera proche de
la loi théorique quand h est autour de 5.
Dans notre application, on a donc pris h égal à 5 , tout en faisant remarquer que, si le nombre des
segments est faible (< 15 en général) l’utilisation de la méthode sera peu valide.
136

Annexe D
Problème d’ajustement de courbe
par un modèle non linéaire

D-1 Introduction

Le problème d’ajustement d’un donnée à certain modèle algébrique est connue en analyse
numérique, et il s’appelle le problème d’ajustement de courbe [Pap00], [Rus94]. Ce problème
consiste à rechercher les paramètres du modèle qui permet le bon ajustement du modèle
algébrique aux données réels.
Si le modèle est linéaire, on résout le problème par des méthodes de régression linéaire [Sap90],
et si le modèle est non linéaire on résout le problème par des méthodes de régression non linéaire
[Rar98].

D-2 Position du problème

On cherche à exprimer la relation entre deux variables X et Y sous forme d’une fonction F qui
dépend de manière non linéaire d’un vecteur de paramètres Α = (α1,...,α q ) .
^
Y = F ( X , Α) (D.1)
Pour résoudre ce problème on utilise la méthode de moindre carrée, on doit donc minimiser par
rapport à A l’erreur quadratique :

1 N
Q( Α) = ∑
2 j=1
( F ( x j , Α) − yi ) 2 (D.2)

Lorsque F est une fonction non linéaire des paramètres A, le minimum ne peut être trouvé que
par une méthode itérative : on part donc avec une extraction initiale des paramètres, que l’on
affine à chaque étape jusqu’à ce que les paramètres ne varie plus. Notons que, pour la plupart
137

des méthodes d’optimisation non linéaire, le minimum obtenue est un minimum locale, situé au
voisinage de l’estimation initiale. Cette dernière devra donc être déterminée avec soin.
Ce problème peut être résolue par l’algorithme classique de Gauss – Newton[Pap00].
138 Bibliographie
Bibliographie 139

Bibliographie
[Ahm89] Ahmed M. S. Comparison of speech enhancement algorithms in terms of LPC
Perturbation. IEEE Transactions on Acoustics, Speech, and signal processing. vol.
37, no. 1, 1989, pp. 426-430.
[Aiv86] Aivazian S., Enukov I., Mechalkine L. Eléments de modélisation et traitement
primaire des données. Mir, Moscou, 1986.

[Aka96] Akay M. Detection and estimation methods for biomedical signals. Academic
press, San Diego, California, 1996.
[Bas83a] Basseville M., Benveniste M. Sequential segmentation of non-stationary digital
signals using spectral analysis. Information Sciences, vol. 29, 1983, pp. 57-73.

[Bas83b] Basseville M., Benveniste M. Sequential detection of abrupt changes in spectral


characteristics of digital signals. IEEE Transaction Information Theory, vol. 29,
no. 9, 1983, pp. 709-724.

[Bas86] Basseville M., Benveniste A., Moustakides G. V. Detection and diagnosis of


abrupt changes in modal characteristics of non-stationary digital signals. IEEE
Transaction Information Theory, vol. IT- 32, 1986, pp. 412 – 417.
[Bas89] Basseville M. Distances measures for signal processing and pattern recognition.
Signal processing, vol. 19, 1989, pp. 349-369.
[Bas92] Basseville M., Benhallam A., Doncarli C., Lucas M.F., De Brucq D., Colot O.,
Rix H., Thierry E., Kauffmann F. Fiches d'algorithmes de segmentation de
signaux. Traitement du Signal, Supplément au vol.9, no 1, 1992, pp. 115-147.
[Bas93] Basseville M., Nikiforov I. Detection of Abrupt Changes: Theory and Application.
Prentice-Hall, Englewood Cliffs, NJ, 1993.

[Bar48] Bartlett M. Smoothing periodograms from time series with continuous spectra.
Nature, 1948, vol. 161, pp. 686-687.

[Bar00] Baron M. I. Non-parametric adaptive change-point estimation and on-line


detection. Sequential analysis, vol.19, 2000, pp. 1-23.

[Bat98] Baten Chris T. M. Surface EMG as a tool for analyzing work related
musculoskeletal disorders. Proc. of Third general SENIAM workshop’s, Aachen,
Germany, May1998, pp. 121- 131.
140 Bibliographie

[Bla98] Blanchet G., Charbit M. Traitement numérique du signal- simulation sous Matlab.
Hermes, Paris, 1998.

[Boi00] Boite R., Bourlard H., Dutoit T., Hancq J., Leich H. Traitement de la parole.
Presses polytechniques et universitaires romandes, Lausanne, 2000.

[Bon01] Bonato P., Cheng S., Gonzales-Cueto J., Leardini A., O’Connor J., Roy S.H.
EMG-based measures of fatigue during a repetitive squat exercise. IEEE Eng. in
medicine and biology, vol. 20, no. 6, November/December 2001, pp. 133 – 143.
[Box70] Box G. E. P, .Pierce D. A Distribution of residual autocorrelations in
autoregressive- integrated moving average time series. J. Amer. Stat. Assoc., vol.
64, 1970.

[Bor87] Borovkov A. Statistique mathématique. Mir, Moscou, 1987.

[Bra83] Brandt A.V. Detecting and estimating parameters jumps using ladder algorithms
and likelihood ratio test. Proc. of ICASSP, Boston, MA, 1983, pp. 1017-1020.

[Bru85] Bruckstein A. M. The resolution of overlapping echo’s. IEEE Trans. Acoustic


speech. signal. process., vol. ASS SP -33, 1985, p. 1357.

[Cha00] Chabert M., Tourneret J.Y., Castanie F. Time-scale analysis of abrupt changes
corrupted by multiplicative noise. Signal processing, vol. 80, 2000, pp. 397-411.

[Cha01] Chabran E., Maton B., Fourment A. Effects of postural muscle fatigue on the
relation between segmental posture and movement. Journal of Electromyography
and Kinesiology, vol. 12, 2001, pp. 67- 79.

[Cia93a] Ciaccio E. J., Dunn S. M., Akay M. Biosignal pattern recognition and
interpretation systems, Part I: Fundamental Concepts. IEEE Eng. In Med. And
Bio., September 1993, pp. 89-95.

[Cia93b] Ciaccio E. J., Dunn S. M., Akay M. Biosignal pattern recognition and
interpretation systems, Part II: Methods for feature extraction and selection. IEEE
Eng. In Med. And Bio., December 1993, pp. 106- 113.

[Cia93c] Ciaccio E. J., Dunn S. M., Akay M. Biosignal pattern recognition and
interpretation systems, Part III: Methods and classification. IEEE Eng. In Med.
And Bio., February/Mars 1993, pp. 129- 135.
Bibliographie 141

[Cia93d] Ciaccio E. J., Dunn S. M., Akay M. Biosignal pattern recognition and
interpretation systems, Part IV: Review of applications. IEEE Eng. In Med. And
Bio., April/May 1994, pp. 269- 273.

[Coa83] Coatrieux J.L. Interference electromyogram processing. Part 2: Experimental and


simulated EMG AR modeling. Electromyogr. Clin. Neurophysiol., vol. 23, 1983,
pp. 481-490.

[Die98] Dieën J. H. Trunk muscle activity in anticipation of lifting loads with known and
unknown internal properties. Proc. of Third general SENIAM workshop’s,
Aachen, Germany, May1998, pp. 132- 140.
[Duc93] Duchêne J., Goubel F. Surface Electromyogram during voluntary contraction:
processing tools and relation to physiological events. Crit. Rev. in Biomed. Eng.,
vol. 21, no. 4, 1993, pp. 313-397.
[Duc97] Duchêne J., Horgel J.Y. SEMG simulation for MFCV distribution estimates
assessment. Proc. of the Second general SENIAM workshop’s, Stockholm,
Sweden, June1997, pp. 122- 128.
[Duc00] J. Duchêne, J. Horgel A Model of EMG Generation. IEEE Transactions on
Biomedical Engineering, vol. 47, 2000, pp. 192-201.

[Fal00] Falou E. W., Khalil M., Duchêne J. AR based method for change detection using
dynamic cumulative sum. Proc. of the 7th IEEE International conference on
Electronics, circuits, and systems. ICECS 2000, Jounieh, Liban, Décembre 2000.

[Fal01a] Falou E. W., Duchêne J, Grabish M., Hewson D., Langeron Y., Lino F. Analysis

of muscular fatigue in passengers sitting in a car seat. Proc. of the International

Society of Biomechanics, ISB XVIIIth , Zurich, Swiss, Juin 2001.

[Fal01b] Falou E. W., Duchêne J., Khalil M., Langeron Y. Segmentation avec rejet de
signaux EMG posturaux par une méthode locale. Proc. Colloque GRETSI’01,
Toulouse, France, Septembre 2001.

[Fal01c] Falou E. W., Duchêne J, Grabish M., Hewson D., Langeron Y. Evaluation of driver
discomfort during long duration car driving, Soumis à Applied Ergonomics,
Septembre 2001.

[Fal01d] Falou E. W., Khalil M., Duchêne J. Adaptive approach for SEMG change
detection . Proc. of the 23rd Annual International Conference of the IEEE
142 Bibliographie

Engineering in Medicine and Biology Society, EMBC2001. Istanbul, Turkey,


Octobre 2001.

[Fal02] Falou E. W., Duchêne J., Khalil M., Hewson D. change detection and
classification in long term Postural EMG recordings. Proc. of the 4th
International Workshop on Biosignal Interpretation. Como, Italy, Juin 2002.

[Far99a] Farina D., Merletti R. Overview of calculation methodologies for information


extraction from surface EMG. SENIAM- Deliverable 7, State of the art on signal
processing methods for SEMG, 1999, pp. 33-54.
[Far99b] Farina D., Merletti R., Korosec D. A tool for the generation of synthetic signals to
test EMG processing algorithms. Proc. of the fourth general SENIAM workshop’s,
Hertogenbosh, Netherlands, September 1999, pp. 18- 24.
[Fog76] Fougere P. F., Zawalick E. J., Radoski H. R. Spontaneous line splitting in
maximum entropy power spectrum analysis. Phys. Earth Planet. Inter., 1976, vol.
12, pp. 201-207.

[Fuk90] Fukunaga K. Introduction to statistical pattern recognition. Academic Press INC.,


1990.
[Geo00] Georgiou T.T Signal estimation via selective harmonic amplification: MUSIC,
Redux . IEEE Trans. On signal Processing, vol.48, March 2000, pp. 780-790.
[Gra76a] Gray A.H., Markel J.D. Distance measures for speech processing. IEEE Trans.
Acoust. Speech. Signal process., vol. ASSP-24, October 1976, pp. 380-391.
[Gra89b] Graupe D., Kohn K.H., Basseas S. Control of electrically-stimulated walking of
paraplegics via above and below lesion EMG signature definition. IEEE Trans.
Auto .Control., vol.34, 1989, p 130.
[Gra97c] Granata A., Merletti R., Avignone E., Lo Conte L. Model based interpretation of
surface EMG fatigue plots. Proc. of the Second general SENIAM workshop’s,
Stockholm, Sweden, June1997, pp. 117- 121.
[Hag99] Hagg G., Luttman A., Jager M. Evaluation of electromyographic field data in
ergonomics – A comparison of different methodologies. SENIAM- Deliverable 7,
State of the art on signal processing methods for SEMG, 1999, pp. 55 –61
[Hef88] Hefftner G., Jaros J. The electromyogram (EMG) as a control signal for functional
neuromuscular stimulation. II. Practical demonstration of the EMG signature
discrimination system. IEEE Trans. Bio. Eng., vol.34, 1988, p 230.
Bibliographie 143

[Her99] Hermens H. J. SEMG signal processing related to areas of application. SENIAM-


Deliverable 7, State of the art on signal processing methods for SEMG, 1999, pp.
23-32.
[Inb84] Inbar G. F., Noujaim A. E. On surface EMG spectral characterization and its
application to diagnostic classification, IEEE Trans. Biomedical Eng., vol. 31,
1984, p. 597.

[Jan00] Jana R., Dey S. Change detection in teletraffic models. IEEE Trans. In Signal
Processing, vol. 48, March 2000, pp. 846-853.

[Jit86] Jitendra K. T. Recursive Estimation for Noisy Autoregressive signals. IEEE


Transactions On Information Theory, vol. IT 32, No. 3, May 1986, pp. 426- 430.

[Kar97] Karlsson S., Gerdle B. Fatigue studies using EMG with special reference to
rehabilitation medicine. Proc. of the Second general SENIAM workshop’s,
Stockholm, Sweden, June1997, pp. 129- 137.
[Kar99] Karlsson S., Yu J., Akay M. Enhancement of Spectral Analysis of Myoelectric
Signals During Static Contractions Using Wavelet Methods. IEEE Trans. On
Biomedical Eng., vol. 46,1999, pp. 670-684.

[Kay81] Kay S., Marple S. L. Spectrum analysis – A modern perspective. Proceedings of


the IEEE, vol. 69, No. 11, 1981, pp. 1380- 1419.
[Kay88] Kay S. Modern Spectral Estimation Theory & Application. Englewood Cliffs,
Prentice-Hall, NJ, USA, 1988.
[Kha99a] Khalil M. Une approche de la détection et de la classification dans les signaux
non stationnaires. Application à l'EMG utérin Thèse de Doctorat de l’Université
de Technologie de Troyes, France, Septembre 1999.

[Kha99b] M. Khalil Une approche pour la détection fondée sur une somme cumulée
dynamique associée à une décomposition multiéchelle. Application à l'EMG
utérin. Dix-septième Colloque GRETSI sur le traitement du signal et des images,
Vannes, France,1999.

[Kha00] Khalil M., Duchêne J. Uterine EMG Analysis: A dynamic approach for change
detection and classification. IEEE Trans. Bio.. Eng., vol. 47, no. 6,2000, pp. 748-
756.

[Kha01] Khalil M., Duchêne J., Marque C., Ziade H., Youssef L., Hamdach S. Extractions
des types d'évènements dans les signaux biomédicaux, Application a
144 Bibliographie

l'électromyogramme Utérin. Journal Scientifique Libanais, vol. 2, 2001, pp. 121-


138.

[Kna02] Knaflitz M., Bonato P. Time- frequency methods applied to muscle fatigue
assessment during dynamic contractions. Journal of Electromyography and
Kinesiology, vol.9, 2002, pp. 337- 350.

[Kor99] Korosec D., Zazula D., Merletti R. Influence of the linear model structure and the
electrode placement to the estimation of the mean frequency in surface EMG
signals. Proc. of the fourth general SENIAM workshop’s, Hertogenbosh,
Netherlands, September 1999, pp. 31- 37.

[Kun91] Kunt M., Bellanger M., De Coulon F., Gueguen C., Hasler M., Moreau N.,
Vetterli M. Techniques modernes de traitement numérique des signaux. Presses
polytechniques et universitaires romandes, Lausanne, 1991.
[Lai98] Lai T. L. Information bounds and quick detection of parameter changes in
stochastic systems. IEEE Trans. Information Theory, vol. 44, no. 7, 1998, pp.
2917-2929.

[Lam95] T. Lammotte, A. Priez, E. Lepoivre, J. Duchêne, Tarriere C. Détection et


caractérisation en temps diffère de sauts de Dynamique: application à la
Segmentation de l’EMG. 15ème Colloque GRETSI, Juan-Les-Pins, France,
Septembre 1995, pp. 1189-1192.

[Lav98] Lavielle M. Optimal segmentation of random process. IEEE Trans. on signal.


processing, vol. 46, 1998, pp. 1365- 1373.

[Lut99a] Luttman A., Jager M., Witsher K., Vorgerd M., Tegenthoff M. Fatigue- induced
EMG changes during low- level isometric contractions. SENIAM- Deliverable 7,
state of the art on signal processing methods for SEMG, 1999, pp. 141-150.
[Lut99b] Luttman A., Jager M., Laurig W. Evaluation of long term EMG recordings for the
determination of muscle strain and fatigue in occupational health. SENIAM-
Deliverable 7, State of the art on signal processing methods for SEMG, 1999, pp.
146-156.
[Mat99] Matei M., Delfosse N., Staroswiecki M., Darkhovski B. Une nouvelle approche
pour la détection en présence de paramètres inconnus. Dix–septième Colloque
GRETSI sur le traitement du signal et des images, Vannes, France, 1999.
Bibliographie 145

[Mar87] Marple S. L. Digital spectral analysis with applications. Prentice-Hall,


Englewood Cliffs, NJ, USA, 1987.
[Mer99a] Merletti R. The traditional Fourier approach to EMG analysis during voluntary or
evoked sustained contractions. SENIAM- Deliverable 7, State of the art on signal
processing methods for SEMG, 1999, pp. 65-78.
[Mer99b] Merletti R., Hermens H. J., Freriks B., Hagg G., Disselhorst-Klug C. Conclusions
of the SENIAM signal processing task. SENIAM- Deliverable 7, State of the art
on signal processing methods for SEMG, 1999, pp. 245 –250.
[Mer99c] Merletti R., Farina D., Hermens H., Freriks B., Harlaar J. European
recommendation for signal processing methods for surface electromyography.
SENIAM- Deliverable 8, European recommendation for surface
electromyography, 1999, pp. 57-68.
[Mer01] Merletti R., Rainoldi A., Farina D. Surface electromyography for noninvasive
characterization of muscle. Exercise and Sport Sciences Reviews, vol. 29, no. 1,
2001, pp. 20-25.
[Nik86] Nikiforov I. Sequential detection of changes in stochastic systems. Lecture notes
in Control and information Sciences, NY, USA, 1986, pp. 216-228.

[Nik95] Nikiforov I. Diagnostic séquentiel optimal de ruptures dans les systèmes


stochastiques .15ème colloque GRESTSI, Juan-Les-Pins, France,1995, pp. 113-
116.

[Nik00] Nikiforov I. A simple recursive algorithm for diagnosis of abrupt changes in


random signals. IEEE Trans. Information Theory, vol. 46, November 2000, pp.
2740 – 2746.

[Obr97] Obrecht R. A., Jacob B., Parlangeau N. Audio visual speech recognition and
segmental master slave HMM. Proc. AVSP'97, Rhodes, Greece, September 1997.

[Obr88a] Obrecht R. A., Su H. Y. Three acoustic label lings for phoneme based continuous
speech recognition. Proc. Speech'88, Edinburgh, 1988, pp. 943-950.

[Obr88b] Obrecht R. A. A New statistical approach for the automatic segmentation of


continuous speech signals, IEEE Trans. Acoustic Speech Signal Process, vol. 36,
no.1, 1988, pp. 29-40.

[Orf90] Orfandis S. J. Optimum Signal Processing an Introduction, McGraw-Hill


international editions, Singapore, 1990.
146 Bibliographie

[Pai87] Paiss O., Inbar G.F. Autoregressive modeling of Surface EMG and Its Spectrum
with Application to Fatigue. IEEE Transactions On Biomedical Engineering, vol.
34, 1987, pp. 761-770.

[Pag54] Page E. S. Continuous inspection schemes. Biometrika, vol. 41,1954, pp. 100-115.

[Pap00] Papalambros P. Y, Wilde J. D. Principles of optimal design. Modeling and


computation. Cambridge university press, USA, 2000.

[Pon98] Ponnet H., Spaepen A., Hermans V., Wouters, M. Simulation and validation of
fatigue induced changes in the electromyographic signal. Proc. of the Third
general SENIAM workshop’s, Aachen, Germany, May1998, pp. 87- 93.
[Pop96] Popescu T. D. Comparative study of some sequential detection methods for digital
signals, Studies in information and control, vol. 5, December 1996, pp. 345-351.
[Pro96] Proakis J. G., Manolakis D. G., Digital signal processing principles, Algorithms,
and Applications. Englewood Cliffs, Prentice- Hall, NJ, 1996.
[Rar98] Rardin L. R. Optimization in operation research. Prentice-Hall, NJ, USA, 1998.

[Red79] Reddi S. S. Multiple source location – A digital approach. IEEE Trans. Aero.
Electro. Syst., vol. AES –15, 1979, pp. 95-105.

[Rou87] Rougée A., Basseville M., Benveniste, A., Moustakides G. Optimum robust
detection of changes in the AR part of a multivariable ARMA Process. IEEE
Transactions on Automatic Control, vol. 32, 1987, pp. 1116-1120.

[Rus94] Rustagi S. J. Optimization techniques in statistics. Academic press, USA, 1994.

[Sap90] Saporta G. Probabilités, analyse des données et statistiques, éditions Technip,


1990.

[Sar95] Saric Z. M., Turajilic S. R. A new approach to speech segmentation based on the
maximum likelihood. Circuits Systems Signal Process, vol. 14, 1995, pp. 615-632.

[Sch86] Schmidt R. O. Multiple emitter location and signal parameter estimation, IEEE
Trans. Antennas Propagation, vol. AP- 34, 1986, pp. 276-280.
[Sei87] Seidel H., Beyer H., Brauer D. Electromyographic evaluation of back muscle
fatigue with repeated sustained contractions of different strengths. Eur. J. Appl.
Physiol., vol. 56, 1987, p 592
Bibliographie 147

[Sek91] Seki K., Miyazaki Y., Watanabe M., Nagata A., Narusawa M. Surface
electromyogram spectral characterization and motor unit activity during voluntary
ramp contraction in men, Eur. J. Appl. Physiol., vol. 63, 1991, pp. 165
[Shw75] Shwedyk E., Balasubsubramanian R., Scott R. N. A nonstationary model for the
electromyogram. IEEE Transactions on Biomedical Engineering and signal
processing. vol. 24, no. 5, 1977, pp. 417-424.
[The92] Therrien W. C. Discrete random signals and statistics signal processing.
Englewood Cliffs, Prentice- Hall, NJ, 1992.
[Ton75] Tong H. Autoregressive model fitting with noisy data by Akaike information
criterion. IEEE Transactions On Information Theory, vol. IT 21,1975, pp. 476-
480.
[Ton77] Tong H. More on Autoregressive model fitting with noisy data by Akaike
information criterion, IEEE Transactions On Information Theory, vol. IT 23,1977,
pp. 409-410.
[Tur96] Turajilic S. R., Saric Z. M. Sequential speech segmentation based on the spectral
ARMA transition measure. Circuits Systems Signal Process, vol. 15,1996, pp. 71-
92.

[Van98] Van Dieen J.H., De Looze M.P. Trunk muscle activity in anticipation of lifting
loads with known and unknown inertial properties. Proc. of the Third general
SENIAM workshop’s, Aachen, Germany, May1998, pp. 132- 140.
[Van00] Van der Vaart A.W. Asymptotic statistics. Cambridge university press, NY, USA,
2000.

[Voz94] Vozel B. Etude comparative d’algorithmes récursifs de détection de ruptures


spectrales. Thèse de Doctorat de l’Université de Nantes, France, Février 1994.

[Wes99] Westgaard R.H. SEMG in ergonomics: possibilities and limitations , Proc. of the
fourth general SENIAM workshop’s, Hertogenbosh, the Netherlands, September
1999, pp. 43- 48.

Вам также может понравиться