Вы находитесь на странице: 1из 75

Master 1 INST et ESEM Traitement avancé du signal

République algérienne démocratique et populaire

Université de Mohamed Boudiaf-M’sila


Faculté de Technologie
Département d’Electronique

Cours & TDs pour Master 1 en Electronique

Options : INST & ESEM

Traitement Numérique du
Signal

Présenté par : Pr. Amar Mezache

Version : 2018/2019

1
Master 1 INST et ESEM Traitement avancé du signal

Sommaire
Chapitre 1 Echantillonnage et Transformée en Z 3
1.1 Théorème d’échantillonnage…………………………………………...... 3
1.2 Transformée en Z………………………………………………...……… 5
1.3 Transformée en Z inverse…………………...…………………………... 7
1.4 Transformée en Z usuelles………………………………………............. 8
1.5 Commandes Matlab………………...…………………………………… 9
Exercices de TD……………………….……….…………………………… 12

Chapitre 2 Filtres numériques RII 13


2.1 Introduction………………...……………………………………............. 13
2.2 Représentation des filtres numériques RII………………………………. 14
2.3 Conception des Filtres numériques RII………………………………….. 16
2.4 Modèles de conception des filtres RII…………………………................ 20
2.5 Transformations fréquentielles des filtres RII………………………....... 29
2.6 Commande Matlab………………………………...…………………….. 31
2.7 Exercices de TD………………….……………………………...………. 32

Chapitre 3 Filtres numériques RIF 33


3.1 Introduction……………...…………………………...………………….. 33
3.2 Conception par la méthode de fenetrage…………………………..…….. 34
3.3 Conception par la méthode de l’échantillonnage fréquentiel.……..…….. 38
2.7 Exercices de TD………………….……………………………………… 41
42
Chapitre 4 Signaux aléatoires et processus stochastiques
4.1 Introduction……………………………………………………………. 42
4.2 Espérances mathématiques……………………………………………. 45
4.3 Propriétés des fonctions de corrélation.…………………………………. 46
4.4 Fonction d’intercorrélation……………………………………………. 47
4.5 Exemples de processus aléatoires……………………………………..... 49
5.6 Ergodicité……………………………..………………………………… 54
5.7 Densité spectrale de puissance………………………………..………… 55
5.8 Systèmes linéaire invariants dans le temps…………..…………………. 57
5.6 Exercices de TD………………….……………………………………... 60

Chapitre 5 Transformation de Fourier discrète


62
5.1 Introduction…………..…………………………………………………. 62
5.2 Représentation des séquences périodique………………………..……... 62
5.3 Propriétés des séries de Fourier……………………...………………….. 65
5.4 Echantillonnage de la transformée en Z……………………………..….. 66
5.5 Représentation de Fourier des séquences finies…………..…………….. 68
5.6 Transformée de Fourier rapide………………..………………………… 70
5.7 Exercices de TD…...……………………………………………………. 74
Bibliographies 75

2
Master 1 INST et ESEM Traitement avancé du signal

Chapitre1
Echantillonnage et Transformée en Z

1. 1 Théorème d’échantillonnage
Dans cette section, on veut étudier l’échantillonnage d’un signal déterministe
quelconque g(t) à bande limitée de fréquence maximale fm. Alors, la transformée de Fourier,
G(f)=0 pour f > f m
g(t) G(f)

t f
0 -fm fm
0

Fig. 1.1 Signal analogique avec son spectre à bande limitée

Idéalement, l’échantillonnage est obtenu en multipliant le signal g(t) par un train d’impulsions
p(t) [1]. Soit gs(t)= g(t)p(t)

gs(t) p(t)

t t
-2T T 0 T 2T 3T -2T T 0 T 2T

Fig. 1.2 Echantillonnage avec un train d’impulsion p(t)= δ (t )

Comme p(t) est une fonction périodique, elle peut être représentée par la série de Fourier
suivante [1]:
+∞ j 2πn
t
p( t ) = ∑C e
n = −∞
n
T
(1.1)

3
Master 1 INST et ESEM Traitement avancé du signal

T/2 t T/2 t
1 − j 2πn 1 − j 2πn 1
où C n = ∫ p( t )e T
dt = ∫ δ ( t )e T
dt =
T −T / 2 T −T / 2 T

1
est la fréquence fondamentale du signal périodique p(t), qui représente aussi la fréquence
T
1
d’échantillonnage, f s = Hz . La fonction gs(t) devient
T
+∞
g s ( t ) = f s g ( t ) ∑ e j 2πnf s (1.2)
n = −∞

La TF de gs(t) est
+∞ +∞
G s ( f ) = ∫ [ f s g ( t ) ∑ e j 2πnf s ]e − j 2πnf dt
−∞ n = −∞

+∞ +∞
= fs ∑ ∫ g( t )e
n = −∞− ∞
− j 2π ( f − nf s )t
dt (1.2)

+∞
= fs ∑ G( f − nf
n = −∞
s )

La Fig. 1.3 représente le tracé de l’équation (1.2) pour f s > 2 f m .

Gs(f)

-2fs -fs -fm 0 fm fs 2fs f

Fig. 1.3 Spectre du signal échantillonné pour fs > 2 fm


On observe que le signal original g(t) peut être reconstruit par l’application du filtre passe-bas
comme montré par la ligne pointillée. On peut aussi remarquer que le taux d’échantillonnage
devient au moins 2fm. Alors la fréquence d’échantillonnage minimale est fs =2fm qui est
appelée le taux de Nyquist. L’échantillonnage par une fréquence inférieure au taux de Nyquist
(Fig. 1.4) permet de produire l’erreur de recouvrement (chevauchement) et le signal original
ne peut être reconstruit [1, 2].

Gs(f)

-2fs -fs -fm 0 fm fs 2fs f


Fig. 1.4 Spectre du signal échantillonné pour fs < 2 fm

4
Master 1 INST et ESEM Traitement avancé du signal

1. 2 Transformée en Z
La transformée en Z (TZ) est un outil mathématique de l'automatique et du traitement
du signal, qui est l'équivalent discret de la transformée de Laplace. Elle est utilisée pour le
calcul de filtres numériques à réponse impulsionnelle infinie (RII), réponse impulsionnelle
finie (RIF) et en automatique pour modéliser des systèmes dynamiques de manière discrète
[2, 3].

(i) Définitions : On considère un signal analogique défini par xa(t). Cette fonction définie sur
IR est causale si : Pour tout t<0, xa(t)= 0. En ne prenant que les valeurs des images par x des
nombres entiers, on construit une suite numérique, appelée signal échantillonné de f. La suite
x(n) est appelée un signal causal discret ou numérique par opposition à la fonction xa(t) qui est
un signal causal continu ou analogique. Si l’on appelle T la période entre deux mesures de
l’échantillon, on peut construire le signal causal discret : x(n) = xa(nT).

Maintenant, nous voulons définir pour les signaux causaux discrets une transformation
analogue à la transformée de Laplace pour les signaux causaux continus. Soit un signal causal
continu xa(t) et le signal discret échantillonné associé : Pour tout n ∈ N , x(n) = xa(n). La transformée
+∞
− st
de Laplace du signal continu x est : X ( s ) = ∫ x ( t )e
a dt . La fonction x a (t )e − st a pour signal
0

discret échantillonné associé : pour tout n ∈ N , x(n) e-sn.


Il s’agit ici d’approximer l’aire définie par l’intégrale X(s) par une série
+∞ +∞

∫ xa ( t )e dt ≅ ∑ x( n )e avec T=1.
− st − sn

0 n=0

5
Master 1 INST et ESEM Traitement avancé du signal

En posant z = e jω = e s , la TZ, X(z) de la suite x(n) est définie par la relation suivante [2-4]:
+∞
X ( z ) = ∑ x( n )z − n (1.3)
n=0

Z est une variable complexe et la fonction X(z) possède un domaine de convergence qui en
général est un anneau centré sur l’origine de rayons R1 et R2. C'est-à-dire que X(z) est définie
pour R1<z< R2. Les valeurs Rl et R2 dépendent de la suite x(n). Si la suite x(n) représente la
suite des échantillons d'un signal prélevé avec 1a période T, 1a transformée de Fourier
discrète (TFD) de cette suite s'écrit:

S ( f ) = ∑ x( n )e − j 2πfnT (1.4)
n=0

Pour z = e j 2πfT , la transformée en Z de la suite x(n) coïncide avec sa transformée de Fourier.


C'est-à-dire on peut faire l’analyse fréquentielle du signal discret par la transformée en Z.

(ii) Propriétés : On montre les propriétés énoncées ci-dessous :


- Linéarité :
Z {a1 x1 (n) ± a 2 x 2 (n)} = a1 Z {x1 ( n )} ± a 2 Z {x 2 ( n )} (1.5)
- Décalage temporel :
Z {x( n − k )} = z − k Z {x( n )} (1.6)
- Avance :
 k −1 
Z {x( n + k )} = z k  Z {x( n )} − ∑ x( j )z − j  (1.7)
 j =0 
- Convolution :
Z {x * y} = Z {x}Z ( y ) (1.8)
+∞
Où ( x * y )( n ) = ∑ x( n − k ) y( k )
k = −∞

6
Master 1 INST et ESEM Traitement avancé du signal

- Multiplication par une exponentielle :


{ }
Z a n x = X ( z / a) (1.9)
- Théorème de la valeur initiale : soit x(n) signal causal
x(0) = lim X ( z ) (1.10)
z → +∞

- Théorème de la valeur finale :


lim x(n) = lim ( z − 1) X ( z ) (1.11)
n → +∞ z →1, z <1

z −1 1+ s
- Relation avec la transformée de Laplace: s = , z=
z +1 1− s
- Multiplication par la variable d’évolution :
k

{ k 
} d 
Z n x( n ) =  − z  X ( z ) (1.13)
 dz 

1. 3 Transformée en Z inverse :
En général, la TZ inverse (TZI) de X(z) peut être effectuée par une des quatre méthodes
suivantes :
a- Méthode de la table de transformation : On consulte directement la table si c’est
possible.
b- Méthode des fractions rationnelles (partial-fraction expansion method) : On
décompose X(z) en une somme de plusieurs fonctions rationnelles suivante :
X ( z ) = X 1 ( z ) + X 2 ( z ) + X 3 ( z ) + ... .
La T.Z inverse est ensuite obtenue par l’utilisation de la table des transformations. D’où
x(n) = x1 (n) + x 2 (n) + x3 (n) + ...
c- Méthode de série en puissances (power-series method) : On transforme X(z) en une
série finie (z-k, k=1, …, n) de puissances utilisant la division polynomiale.
X ( z ) = x(0) + x(1) z −1 + x(2) z −2 + .... + x(k ) z − k .
Alors, il suffit de trouver x(n) à partir de x(0), x(1), x(2),...., x(k )
d- Méthode de l’inversion de la formule (inversion formula method) : Cette dernière
méthode repose sur le calcul de l’intégrale de contour suivant :
1
X ( Z ) Z n −1dZ
2πj C∫
x ( n) = (1.14)

Où C est un contour fermé contenant tous les points singuliers ou pôles de X(Z). Le théorème
des résidus est souvent utilisé pour déterminer x(n)

7
Master 1 INST et ESEM Traitement avancé du signal

x ( n) = ∑ {
Re s X ( Z ) Z n-1 }
Z =Zk (1.15)
Z k = pôles de Z n -1
X (Z )

Le résidu à un pôle z=a d’ordre q de la fonction X ( Z ) Z n-1 est donné par [4] :

Re s = l im
q
a
1 d q −1
z → a ( q − 1)! dz q −1
[
X ( Z ) Z n-1 ( z − a) q ] (1.16)

1. 4 Transformées en Z usuelles :
Les transformées en Z de quelques fonctions les plus utilisées en traitement du signal sont
présentées dans la Table. 1. Quelques transformations usuelles peuvent être utilisées [5].
z z ( z + 1)
(−1) n ↔ , n2 ↔ ,
z +1 ( z − 1) 3

z ( z 2 + 4 z + 1) az ( z + a )
n ↔
3
et a n n 2 ↔
( z − 1) 4
( z − a) 3

Table. 1 Transformations en Z usuelles [5]

8
Master 1 INST et ESEM Traitement avancé du signal

Remarques :
+∞
- La série géométrique ∑q0
n
de raison q ≠ 0 converge si est seulement si q < 1 . Si cette série
+∞
1
entière converge, on a alors : ∑q
0
n
=
1− q
+∞
- Soit z ∈ C et z ≠ 1 . ∑z
n =0
n
est une série entière à variable

complexe et qui converge si z < 1 . Le nombre « 1 » s’appelle

le rayon de convergence de la série où l’ensemble des


nombres complexes appartient dans le disque de convergence
ci-contre.

1. 5 Commandes Matlab [6] :

(i) Calcul de la transformée en Z et Z inverse:


La bibliothèque Matlab délivre les fonctions « ztrans » et « iztrans » pour la transformée en Z
et la transformée en Z inverse.
Exemples :
>> syms z n
>> ztrans(1/4^n)
ans =z/(z - 1/4)

>> syms z n
>> iztrans((6-9*z^-1)/(1-2.5*z^-1+z^-2))
ans =2*2^n + 4*(1/2)^n

(i) Calcul de la série de puissance:


La fonction « deconv » est utilisée pour exécuter la division polynomiale demandée par la
méthode en série de puissance. Etant donné la fonction de transfert H(z) par
b0 + b1 z −1 + ... + bn z − n
H ( z) =
a 0 + a1 z −1 + ... + a n z −m
La commande Matlab est:
>> [q,r]=deconv(b,a)

Exemple:
1 + 2 z −1 + z −2
H ( z) =
1 − z −1 + 0.356 z − 2
>> b=[1 2 1];

9
Master 1 INST et ESEM Traitement avancé du signal

>> a=[1 -1 0.356];


>> n=5
n = 5;
>> b=[b zeros(1,n-1)];
>> [x,r]=deconv(b,a);
>> disp(x)
1.0000 3.0000 3.6440 2.5760 1.2787

(ii) Calcul des Fractions rationnelles:


La fonction « residuez » est utilisée pour trouver les coefficients et les pôles des fractions
partielles des la fonction X(z).
b0 + b1 z −1 + ... + bn z − n r0 rn
H ( z) = −1 −m
= −1
+ ... +
a 0 + a1 z + ... + a n z 1 − p1 z 1 − p n z −1
La commande Matlab est :
>> [r,p,k]=residuez(b,a);

Exemple:
1 + 2 z −1 + z −2
H ( z) =
1 − z −1 + 0.356 z −2
>> [r,p,k]=residuez([1,2,1],[1,-1,0.3561])
r=
-0.9041 - 5.9928i
-0.9041 + 5.9928i
p=
0.5000 + 0.3257i
0.5000 - 0.3257i
k=
2.8082

(iii) Calcul du diagramme pôles/zéros:


La commande “zplane” calcule et race la localisation des pôles et des zéros dans le plan
complexe. La commande est :
>> zplane(b,a) 1

0.8

Exemple : 0.6

0.4
1 + 1.618 z −1 + z −2
H ( z) =
Imaginary Part

0.2
1 − 1.516 z −1 + 0.878 z −2 0

>> b=[1 -1.618 1]; -0.2


>> a=[1 -1.5161 0.878]; -0.4
>> roots(a)
-0.6
ans =
-0.8
0.7581 + 0.5508i
-1

-1 -0.5 0 0.5 1
Real Part
10
Master 1 INST et ESEM Traitement avancé du signal

0.7581 - 0.5508i
>> roots(b)
ans =
0.8090 + 0.5878i
0.8090 - 0.5878i
>> zplane(b,a)

(iii) Calcul de la réponse fréquentielle:


La commande « freqz » calcule et trace la réponse fréquentielle de H(z). la commande est :
>> freqz(b,anpt,Fs)
Où Fs est la fréquence d’échantillonnage, npt est le nombre de points de la fréquence entre 0
et Fs/2.
Exemple :
1 + 1.618 z −1 + z −2
H ( z) =
1 − 1.516 z −1 + 0.878 z −2
>> b=[1 -1.618 1];
>> a=[1 -1.5161 0.878];
>> freqz(b,a)

10
Magnitude (dB)

-10

-20

-30
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Normalized Frequency (×π rad/sample)

100
Phase (degrees)

50

-50

-100
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Normalized Frequency (×π rad/sample)

11
Master 1 INST et ESEM Traitement avancé du signal

1. 6 Exercices de TD :

Ex #1 :
a) Pour chaque signal analogique xa(t), calculer sa transformée en Z (T.Z).
- xa(t)=u(t) avec u(t)=1 pour t>0 et 0 ailleurs
- xa(t) = e-at
- xa(t)=tu(t)

b) Pour chaque signal numérique x(n) calculer sa T.Z.


- x(n)= anu(n)
- x(n)=n –5
- x(n) = n+1
- x(n)=-bnu(-n-1)
- x(n) = (n + 2)²
- x(n) = 2nn2

Ex #2 :
(a) Calculer la T.Z inverse (TZI) de la fonction suivante :
1
H ( z) =
1 − az −1
(b) Calculer la TZI de la fonction H(z) utilisant les méthodes suivantes:
1- La méthode des fractions rationnelles.
2- La méthode de la série en puissance (division polynomiale).
3- La méthode de l’inversion de la formule (méthode des résidus)
(1 − e − aT ) z
H ( z) =
( z − 1)( z − e −aT )
(c) Calculer la TZI de la fonction suivante utilisant la méthode des fractions rationnelles
6 − 9 z −1
H ( z) =
1 − 2.5 z −1 + z −2
(d) Calculer la TZI de H(z) utilisant la méthode de fractions rationnelles.
1 − 2 z −1 + z −2
H ( z) =
1 − z −1 + 0.356 z −2

12
Master 1 INST et ESEM Traitement avancé du signal

Chapitre 2
Filtres Numériques RII

2. 1 Introduction
Un filtre numérique est un Système Linéaire Discret (SLD) invariant dans le temps
(LTD) et modifiant la représentation temporelle et fréquentielle des signaux d’entrées.
Comme exemples, on a
e- Réduction du bruit pour des signaux radio, audio ou des images issues de capteurs.
f- Modification de certaines zones de fréquence dans un signal audio ou sur une image.
g- Limitation à une bande fréquentielle prédéfinie.
h- Utilisation en téléphonie par exemple le code DTMF (Digital Tone Multiple
Frequency):
La réalisation d’un filtre numérique LTD exige 3 étapes :
- Les spécifications des propriétés désirées du système (allures des bandes de
fréquences).
- L’approximation de ces spécifications en utilisant un système discret causal, H(z).
- Réalisation de ce système en utilisant une arithmétique finie, y(n)=….
Le problème est donc de déterminer un ensemble approprié de spécifications sur le filtre
numérique. Dans le cas d’un filtre passe-bas, les spécifications prennent la forme d’un schéma
de tolérance comme montré par la Fig. 2.1:
La courbe en pointillé représente la réponse fréquentielle du système (filtre) qui satisfait les
spécifications prédéfinies [1]. Dans ce cas, il y’a :
- Une bande passante : 1 − δ 1 < H (e jω ) < 1 + δ 1 ω <ωp

- Une bande d’arrêt : H (e jω ) < δ 2 ωs < ω < π


- La fréquence de coupure de la bande passante est ω p

- La fréquence de coupure de la bande d’arrêt est ω s

13
Master 1 INST et ESEM Traitement avancé du signal

La prochaine étape est donc de trouver un système linéaire discret dont la réponse correspond
aux tolérances prédéfinies. La conception des filtres RII sera considérée par la suite.

H(e jω )

1 + δ1
1 − δ1
Bande
passante

Bande d’arrêt
δ2
Transition

0 ωp ωc ωs π ω

Fig. 2.1 Limites de tolérance pour l’approximation d’un filtre idéal passe-bas

2. 2 Représentation des filtres numériques RII


L’approche traditionnelle est d’utiliser la transformation d’un filtre analogique en un
filtre numérique. Ceci est due à :
• La conception des filtres analogique comprend des techniques très avancées
• Plusieurs méthodes de conception analogiques ont des formules simples
• Dans plusieurs applications, il est intéressant d’utiliser des filtres numériques pour la
simulation des filtres analogiques.
On considère la fonction d’un système analogique.
M
∑ dk sk Ya ( s )
H a ( s) = k =0
N
= (2.1)
X a ( s)
∑ ck s k

k =0

Où x a (t ) est le signal d’entrée et X a (s ) sa TL

y a (t ) est le signal de sortie et Ya (s ) sa TL

x a (t ) y a (t ) Signal de sortie filtré ayant des


Signal d’entrée ayant des
caractéristiques temporelles
ha (t ) caractéristiques temporelles
et fréquentielles modifiées
et fréquentielles

14
Master 1 INST et ESEM Traitement avancé du signal

Donc, ha (t ) est la réponse impulsionnelle du système (filtre analogique). Alternativement, un

système analogique ayant H a (s ) comme fonction de transfert peut être décrit par l’équation
différentielle suivante [1]:
N d k y a (t ) M d k x a (t )
∑ ck = ∑ d k (2.2)
k =0 d kt k =0 d kt
La fonction rationnelle du système correspondant (2.2) pour un filtre numérique a la forme
M

∑b z k
−k

Y ( z)
H ( z) = k =0
N
= (2.3)
X ( z)
∑a
k =0
k z −k

Ou bien
N M
∑ a k y (n − k ) = ∑ bk x(n − k ) (2.4)
k =0 k =0

L’entrée et la sortie sont reliées par le produit de convolution


+∞
y ( n) = ∑ x( k ) h( n − k ) (2.5)
k = −∞

En transformant un système analogique en un système numérique, on doit obtenir H(z) ou


h(n) du filtre numérique. Alors, on doit préserver la réponse fréquentielle. Dans cette
transformation, on doit conserver les propriétés essentielles de la réponse fréquentielle. Aussi,
la stabilité du filtre analogique fait garantir la stabilité du filtre numérique.
Suivant la forme de la fonction de transfert du système RII, on peut envisager quatre classes
de sa structure; la forme directe, la forme cascadée, la forme parallèle et la forme transposée.
A titre d’exemple, la structure directe est considérée si la fonction rationnelle du système RII
s’écrit sous la forme suivante
M

Y ( z)
∑b z k
−k

H ( z) = = k =0
N
(2.6a)
X ( z)
1 + ∑ ak z −k

k =1

L’entrée et la sortie du système sont reliées par


M N
y ( n ) = ∑ bk x ( n − k ) − ∑ a k y ( n − k ) (2.6b)
k =0 k =1

Cette équation différentielle peut être exprimée par la structure de la Fig. 2.2.

15
Master 1 INST et ESEM Traitement avancé du signal

b0
x(n) y(n)
z-1 b1 a1 z-1
x(n-1) y(n-1)
z-1 b2 a2 z-1
x(n-2) y(n-2)
bN-1 aN-1
x(n-N+1) y(n-N+1)
z-1 bN aN z-1
x(n-N) y(n-N)

Fig. 2.2 Structure du filtre RII donnée par (2.6) [1]

2. 3 Conception des Filtres numériques RII


Trois sortes de méthodes de design des filtres RII seront présentées ci-dessous.

2.3.1 Méthode de l’invariance impulsionnelle :


Cette méthode consiste à choisir la réponse impulsionnelle du filtre numérique comme
étant des échantillons égaux espacés de la réponse impulsionnelle du filtre analogique,
h(n) = ha (nT ) , où T est la période d’échantillonnage. Il a été montré que la TZ de h(n) est

reliée à TL de ha (t ) par l’équation suivante [1] :

1 +∞
 2π 
H ( z ) z =e sT =
T
∑H
k = −∞
a s + j

k
T 
(2.7)

La réponse fréquentielle (RF) du filtre numérique est reliée aussi à la RF du filtre analogique
par (théorème de Shannon)
 ω 2π 
( )
H e jω =
1 +∞
∑ Ha j + j k
T k = −∞  T T 
(2.8)

A partir du théorème d’échantillonnage, on a


 π
 H a ( jΩ) = 0, Ω≥
T
 (2.9)
 H e jω = 1 H a  j ω ,
( ) ω ≤π
 T  T
Malheureusement, il n’y a aucun filtre passe-bas analogique qui est limité. Ce phénomène
s’appelle « Aliasing » ou « recouvrement (chevauchement) », Fig. 2.3.

16
Master 1 INST et ESEM Traitement avancé du signal

H a ( jω / T )
1

ω
0 Ω aT
H a (e jω )
1/T

ω
− 2π 0
Ω aT 2π

Fig. 3 Représentation graphique de l’effet de recouvrement dans la technique


de conception par l’invariance impulsionnelle

Prenant la FT du filtre analogique suivante :


M

∑d k sk N
Ak
H a (s ) = k =1
=∑ (2.10)
k =1 s − s k
N

∑c s
k =1
k
k

Les réponses impulsionnelles correspondantes sont


h (t ) = N A e sk t u (t )
 a ∑ k
k =1
 (2.11)
( )
N N
h(n) = ha (nT ) = ∑ Ak e sk nT u (n) = ∑ Ak e sk T n u (n)
 k =1 k =1

Calculant la TZ de la 2ème équation de (2.11), on obtient


N
Ak
H( z ) = ∑ s k T −1
(2.12)
k =1 1 − e z
Par identification de (2.12) et (2.10), on remarque que le pôle à s = s k dans le plan S

correspond au pôle z = e sk T dans le plan Z.

Exemple : Utilisant l’approche de conception précédente, on veut concevoir un filtre


s+a
numérique à partir d’un filtre analogique, H a ( s ) =
(s + a) 2 + b 2
Solution : On décompose ce filtre analogique comme
A1 A2
H a (s) = +
s − s1 s − s 2

17
Master 1 INST et ESEM Traitement avancé du signal

Les pôles sont :


s1=a+jb et s2=a-jb
A1 = lim ( s − s1 ) H a ( s ) = 0.5
s → s1

A2 = lim ( s − s2 ) H a ( s ) = 0.5
s → s2

1/ 2 1/ 2
H a (s) = +
s + a + jb s + a − jb
Et puis, on calcule la fonction de transfert (la TZ) du filtre numérique comme suit

H ( z) =
1/ 2
+
1/ 2
=
(
1 − e − aT cos bT z −1)
( )(
1 − e − aT e − jbT z −1 1 − e −aT e jbT z −1 1 − e −aT e − jbT z −1 1 − e −aT e jbT z −1 )
H(z) a un zéro à z=0 et z = e − aT cos bT . Les RF correspondantes sont montrées par la Fig. 2.4.

20 log10 H a (Ω)
30

20

0 π /T 2π / T Ω
20 log10 H a (e jω )
30

20

0
π 2π ω

Fig. 2.4 Réponse fréquentielle du système analogique du 2ème ordre

2. 3. 2 Méthode des différences finies :


Une autre approche de design est basée sur la solution de l’équation différentielle qui utilise
une approximation des dérivées de (2.3) par des différences finies [1].
y (n) − y (n − 1)
→ ∇ (1) [ y (n)] =
dy a (t )
(2.13)
dt t = nT T

Où y (n) = y a (nT )
Les approximations des dérivées d’ordres supérieurs sont obtenues en répétant l’application
de (2.13).

18
Master 1 INST et ESEM Traitement avancé du signal

d  d k −1 y a (t ) 
d k y a (t )
=  
dt k t = nT dt  dt k −1  t = nT
→ ∇ (1) [ y (n)] = ∇ ( k ) ∇ ( k −1) y (n) [ ] (2.14)

On prend ∇ [ 0] [ y (n)] = y (n) et (2.13), (2.2) devient


N
d k y a (t ) M d k x a (t ) N M

∑ ck k
= ∑ d k k
→ ∑ c k ∇ (k )
[ y ( n ) ] = ∑ d k ∇ ( k ) [x ( n ) ] (2.15)
k =0 d t k =0 d t k =0 k =0

Où y (n) = y a (nT ) et x(n) = x a (nT ) .

 
[
Z ∇ [ y (n)] = 
(1)
]
 1 − z −1 
Y ( z ) [
Z ∇ [x(n)] = 
(1)
]
 1 − z −1 
 X ( z )
  T    T 
Pour  et  , on obtient à partir
−1 k −1 k

[ 
]
− 
Z ∇ [ y (n)] =  T  Y ( z )
(k ) 1 z 
[  −
] 
Z ∇ [x(n)] =  T  X ( z )
(k ) 1 z
     
de la TZ de (2.15)
k
M  1 − z −1 
∑ d k  
k =0  T 
H ( z) = k
(2.16)
N  1 − z −1 
∑ c k  
k =0  T 
M N
En comparant (2.16) et (2.1), H a ( s ) = ∑ d k s k ∑c s k
k
, on observe que la fonction de
k =0 k =0

transfert numérique peut être obtenue directement à partir de la fonction de transfert


1 − z −1
analogique en remplaçant seulement la variable, s = .
T
2.3.3 Méthode de la transformation bilinéaire :
On a déjà vu qu’on peut approximer les dérivées par des différences. Une procédure
alternative est basée sur l’intégration de l’équation différentielle et puis on utilise une
approximation par l’intégrale. Par exemple on considère l’équation différentielle suivante [1] :
c1 y a' (t ) + c0 y a (t ) = d 0 x(t ) (2.17a)

d0
La T.P est de la forme, H a ( s ) =
c1 s + c0
t
On peut écrire y a (t ) comme une intégrale de y a' (t ) comme, y a (t ) = ∫ y a' (t )dt + y a (t 0 ) .
t0

nT
En particulier, si t = nT et t 0 = (n − 1)T , y a (nT ) = ∫ y a' (τ )dτ + y a ((n − 1)T ) . Si l’intégrale
( n −1)T

est approximée par une loi trapézoïdale, on a

19
Master 1 INST et ESEM Traitement avancé du signal

y a (nT ) = y a ((n − 1)T ) +


2
[
T '
y a (nT ) + y a' ((n − 1)T ) ] (2.17b)

D’après (2.17a), on a
c0 d
y a' (nT ) = − y a (nT ) + 0 x a (nT ) (2.18)
c1 c1
En replaçant (2.18) dans (2.17b), nous obtenons

T  c0 d0 
y (n) − y (n − 1) = − ( y (n) + y (n − 1) ) + ( x(n) + x(n − 1) ) (2.19)
2  c1 c1 
En prenant la transformée en Z
Y ( z) d0 d0
H ( z) = = −1
≡ (2.20)
X ( z) 2 1− z c1 s + c0
c1 −1
+ c0
T 1+ z
A partir de (2.20), il est clair que H(z) est obtenue à partir de Ha(s) par
2 1 − z −1
s= (2.21)
T 1 + z −1
H ( z ) = H a ( s ) s = 2 1− z −1 (2.22)
T 1+ z −1

Ou bien
1 + (T / 2 )s
z= (2.23)
1 − (T / 2 )s
2. 4 Modèles de conception des filtres RII
Dans cette section, on va considérer deux gabarits pour la conception des filtres passe-
bas numériques caractérisés par des spécifications désirées; le filtre analogique de
Butterworth et le filtre analogique de Chebyshev.

2.4.1 Filtre analogique de Butterworth :


La fonction de transfert (module au carré) du filtre de Butterworth qui représente un
gabarit d’un filtre passe-bas analogique est donnée par [1, 2]
1
H a ( jΩ ) =
2
2N
(2.24)
 jΩ 
1 +  
 jΩ c 
1
où H a ( jΩ) = . Pour différentes valeurs de N, on va montrer que plus N
1 + j (Ω / Ω c )
N

augmente, plus la courbe devient plus nette (se rapproche vers la réponse d’un filtre passe-bas
idéal). Cette caractéristique est montrée par la Fig. 2.5.

20
Master 1 INST et ESEM Traitement avancé du signal

H a ( jΩ )

1 N=2
N=4
N=8
1/ 2

0 Ωc Ω
Fig. 2.5 Relation des caractéristiques du module du filtre de Butterworth en fonction de l’ordre N

A partir de (2.24) et avec s = jΩ , on peut écrire


1 1
H a ( s ) H a (− s) = .
1 + j ( s / jΩ c ) 1 − j ( s / jΩ c ) N
N

(2.25)
1
=
1 + ( s / jΩ c ) 2 N

Prenant la transformation d’Euler, − 1 = e jπ + j 2 pπ et j = e jπ / 2 , les racines du dénominateur


(les pôles) de (2.25) sont :
1

s k = (−1) 2N
( jΩ c )
( N +1+ 2 k )π
(2.26)
j
= Ωce 2N

Donc, il y a 2N pôles également espacés en angle de π / N sur un cercle de rayon Ω c dans le


plan S. Les pôles à partie réelle négative assurant la stabilité du filtre sont donnés par
l’expression explicite suivante [2]:
 π 2k + 1   π 2k + 1 
s k = Ω c cos + π  + jΩ c sin  + π
2 2N  2 2N 
, 0 ≤ k ≤ N −1 (2.27)
 2k + 1   2k + 1 
= −Ω c sin  π  + jΩ c cos π
 2N   2N 
Après le calcul de l’angle π / N , on peut déterminer directement les pôles du système sur le
cercle dans le plan S suivant [1, 2]: Im

π /N
s1

s3
Ωc Re

s4

s2

21
Master 1 INST et ESEM Traitement avancé du signal

A près le calcul des pôles sk, H a (Ω) est écrit de telle sorte que H a ( jΩ) = 1 pour Ω = 0 .
N −1
− sk Ω c2
H a (s) = ∏ = (2.28)
k =0 s − s k ( s − s 0 )( s − s1 )...
Exemple [2] :
On peut concevoir un filtre passe-bas numérique de Butterworth avec les spécifications
suivantes :
- Une atténuation dans la bande passante de 1dB à Ω = Ω p = 0.2π .

- Une atténuation dans la bande d’arrêt de 15dB à Ω = Ω s = 0.3π .

H a ( jΩ )
20 log10 (H a ( jΩ) ) ≥ −1 (0.2 π ,-1dB)
Donc, 
20 log10 (H a ( jΩ) ) ≤ −15
1 ( Ω c ,-3dB)

1/ 2
(0.3 π ,-15dB)

0 Ω p Ωc Ωs Ω
(i) Méthode de l’invariance impulsionnelle :
D’après le module H a ( jΩ) et les spécifications ci-dessus, il est facile d’écrire

  0.2π  2 N
1 +   = 10 0.1
  c  Ω
 2N
(2.29)
  0.3π 
1 +   = 101.5
  Ωc 
La solution de ces équations mène à N=5.8858 et Ω c = 0.7047. Puisque N doit être entier, on
prend une valeur la plus proche, N=6. Les spécifications des deux bandes ne sont pas
satisfaites ensemble car N=6. Pour déterminer Ω c , la 1ère équation de (2.29) est utilisée pour

cette approche. Dans ce cas, Ω c = 0.7032 où les spécifications de la bande passante sont
satisfaites et les spécifications de la bande d’arrêt sont dépassées. Pour déterminer les pôles du
filtre de Butterworth sur le cercle de rayon Ω c , on doit d’abord identifier les points sur ce

dernier également espacés en angle avec un espacement de π / N de telle façon que les points
sont symétriquement localisés par rapport à l’axe imaginaire. Dans ce cas, il y a 3 pairs de
pôles marqués en gras dans la partie gauche du plan-S (Fig. 2. 6).
s1,2= -0.1820 ± j0.6792
s3,4= -0.4972 ± j0.4972

22
Master 1 INST et ESEM Traitement avancé du signal

Im
s5,6= -0.6792 ± j0.1820
π /6
Plan-S

Ω c = 0.76622
Re
0

Fig. 2. 6 Localisation de 2N pôles dans le plan S (N est pair)


D’où
Ω 6c
H a (s) =
( s − s1 )( s − s 2 )( s − s3 )( s − s 4 )( s − s5 )( s − s 6 )
(2.30)
0.12093
= 2
( s + 0.3640 s + 0.4945)( s + 0.9945s + 0.4945)( s 2 + 1.3585s + 0.4945)
2

Ak
Si on exprime Ha(s) en une somme de fractions i.e., H a (s ) = ∑
N
et on utilise la TZ , i.e.,
k =1 s − s k

N Ak
H ( z) = ∑ sk T −1
, on obtient
k =1 1 − e z
0.2871 − 0.4466 z −1 − 2.1428 − 1.1454 z −1 1.8558 − 0.6304 z −1
H ( z) = + +
1 − 1.2971z −1 + 0.6949 z − 2 1 − 1.0691z −1 + 0.3699 z − 2 1 − 0.9972 z −1 + 0.2570 z − 2
(2.31)
(ii) Méthode de la transformation bilinéaire :
Dans cette procédure, on doit utiliser au démarrage la transformation bilinéaire [1]:
2 1 − e − jω 2 sin(ω / 2) 2
s = jΩ = = j = j tan(ω / 2)
T 1 + e − jω T cos(ω / 2) T
On suppose que T=1, on peut écrire
20 log10 H a ( j 2 tan(0.2π / 2) ≥ −1
 (2.32)
20 log10 H a ( j 2 tan(0.3π / 2) ≤ −15

Ω p = j 2 tan(0.2π / 2) et Ω s = j 2 tan(0.3π / 2)

Reformulant (2.32), on trouve

23
Master 1 INST et ESEM Traitement avancé du signal

  2 tan(0.1π )  2 N
1 +   = 10 0.1
  Ωc 
 2N
(2.33)
  2 tan(0.15π ) 
1 +   = 101.5
  Ω c 
Résolvant (2.33), on obtient

N=
[
1 log (101.5 − 1) /(10 0.1 − 1)]= 5.3046 (2.34)
2 log[tan(0.15π ) / tan(0.1π )]
On prend N=6. En appliquant la 2ème équation de (2.33) pour trouver Ω c = 0.7662 . Ce choix
est justifié par cette approche afin d’assurer les spécifications du filtre numérique. Dans ce
cas, les spécifications de la bande passante seront dépassées alors que celles de la bande
2
d’arrêt sont satisfaites. Il y a 12 pôles de H a (s ) qui sont distribués uniformément en angle

sur le cercle de rayon 0.7662 (Fig. 2.6). La F.T Ha(s) pour des pôles à partie réelles négatives
est
0.20238
H a (s) = (2.35)
( s + 0.396 s + 0.5871)( s + 1.083s + 0.5871)( s 2 + 1.4802 s + 0.5871)
2 2

2 1 − z −1
Prenant s = et avec T=1, la T.Z qui correspond le filtre numérique est :
T 1 + z −1
0.0007378(1 + z −1 ) 6
H ( z) =
(1 − 1.2686 z −1 + 0.7051z −2 )(1 − 1.0106 z −1 + 0.3583 z − 2 )(1 − 0.9044 z −1 + 0.2155 z −2 )
(2.36)
M N
La fonction de récurrence y (n) = ∑ a k x(n − k ) − ∑ bk y (n − k ) est souhaitée pour la
k =0 k =1

réalisation finale du filtre RII. Cet algorithme récursif est obtenu par la TZI de (2.36).

2.4.2 Filtre analogique de Chebyshev:


Dans les filtres de Butterworth, les caractéristiques dans la bande passante et la bande
d’arrêt sont monotones. Si les spécifications du filtre sont en termes de l’erreur maximale de
l’approximation de la bande passante, les spécifications sont dépassées à l’extrémité de la
bande fréquentielle. Une approche plus efficace consiste à distribuer l’approximation sur la
bande passante d’une manière uniforme. La classe des filtres de Chebyshev a la propriété
d’avoir l’amplitude de la réponse fréquentielle ondulée sur la bande passante et/ou la bande
d’arrêt [1, 2].

24
Master 1 INST et ESEM Traitement avancé du signal

H a ( jΩ )

1
1−δ p

δs

Ωp Ωs

Fig. 2. 7 Approximation par le filtre de Chebyshev ( σ p = ε )

La forme analytique de l’amplitude au carrée est donnée par [1, 2]


1
H a ( jΩ ) =
2
(2.37)
1 + ε V (Ω / Ω c )
2 2
N

Où VN(x) est le polynôme de Chebyshev d’ordre N


VN ( x) = cos( N cos −1 ( x)) (2.38)

Par exemple, si N=0, VN(x)=1, si N=1, V N ( x) = cos(cos −1 ( x)) =x, si N=2,

V N ( x) = cos(2 cos −1 ( x)) = 2 x 2 − 1 . A partir de l’équation (2.38) qui définie les polynômes de
Chebyshev, il est clair qu’on peut obtenir une formule de récurrence dans lequel VN+1(x) peut
être obtenu à partir de VN(x) et VN-1(x). D’où
V N +1 ( x) = 2 xV N ( x) − V N −1 ( x) (2.39)

Si 0 < x < 1 , l’équation (2.38) indique que V N2 (x) varie entre 0 et 1. Si x > 1 , cos −1 ( x) est
imaginaire et VN(x) se comporte comme un cosinus hyperbolique et donc décroît d’une façon

monotone. A partir de (2.37), H a ( jΩ) fluctue entre 1 et 1 /(1 + ε 2 ) si 0 < Ω / Ω c < 1 . Pour
2

caractériser le filtre, trois paramètres à déterminer; ε , Ω c et N. Dans une conception typique,

ε est donné par l’ondulation (fluctuation) de la bande passante, Ω c par la fréquence de


coupure désirée, l’ordre N est alors choisi de telle façon que les spécifications de la bande
passante ou d’arrêt sont satisfaites. Les propriétés du filtre passe-bas de Chebyshed type1
sont :
1- Pour 0 ≤ Ω < Ω c , nous avons selon les propriétés du polynôme de Chebyshev

1 jω 2
≤ H ( e ) ≤1
1+ ε 2
a

2- A partir des caractéristiques ci-dessus, on a

25
Master 1 INST et ESEM Traitement avancé du signal

1 /(1 + ε 2 ), N pair
H a (0) = 
2

1 N impair

3- Pour Ω > Ω c , la réponse a une nature monotone et décroissante due au comportement

monotone de VN(x) pour x > 1.

Il a été montré dans [1] que les pôles du filtre de Chebyshev s’étendent sur une elliptique du
plan-S. D’après la Fig. 2.8, l’ellipse est définie par deux cercles correspondants aux axes
majeur et mineur. Il a été trouvé que les rayons de ces cercles sont obtenus en fonction de ε ,
Ω c et N.


(
1 1/ N
a = 2 α − α −1 / N )
 avec α = ε −1 + 1 + ε −2
(
b = 1 α 1 / N + α −1 / N
 2
)
Pour déterminer les pôles du filtre de Chebyshev sur l’ellipse, on doit d’abord identifier les
points sur les cercles mineurs et majeurs également espacés en angle avec un espacement de
π / N de telle façon que les points sont symétriquement localisés par rapport à l’axe
imaginaire. Im
π /3 Plan-S

s1, 2 = − aΩ c sin(π / 6) ± jbΩ c cos(π / 6)

s 3 = − aΩ c
Pour bΩ c aΩ c
Re
s1, 2 = − aΩ c sin(π / 2 N ) ± jbΩ c cos(π / 2 N )

s3, 4 = −aΩ c sin(3π / 2 N ) ± jbΩ c cos(3π / 2 N )

…etc

Fig. 2.8 Localisation des pôles du filtre de Chebyshev d’ordre N=3

Un point ne tombe jamais sur l’axe imaginaire et tombe sur l’axe réel si N est impair et jamais
si N est pair. Après ce calcul, il est bien confirmé que les pôles du filtre d’ordre N peuvent être
obtenus par l’expression générale suivante [2]:
1 1   (2k + 1)π  1 −1 1   (2k + 1)π 
s k = −Ω c sinh  sinh −1  sin   + jΩ c cosh  sinh  cos  (2.40)
N ε   2N  N ε   2N 
0 ≤ k ≤ N −1.

26
Master 1 INST et ESEM Traitement avancé du signal

Les identités suivantes sont utiles pour le calcul des fonctions inverses cosh-1 et sinh-1. D’où

( ) ( )
sinh −1 ( x) = ln x + x 2 + 1 , cosh −1 ( x) = ln x + x 2 − 1 . Le filtre analogique de Chebyshev
est donné sous la forme suivante [2]
N −1 − s
 1
 ∏ k , N pair
2 k =0 s − s
 1+ ε
H a (s) = 
k
(2.41)
N −1 − s
∏ k
N impair
 k =0 s − s k

1
≥ (1 + δ p ) 2 , on fait choisir Ω c = Ω p
1 + ε V (Ω p / Ω c )
- Pour satisfaire la condition, 2 2
N

1
- Pour satisfaire la condition, ≤ δ s2 , on fait choisir
1 + ε V (Ω s / Ω c )
2 2
N

−1
(1 − δ p ) −2 − 1 Ωp
V N (1 / k ) = cosh( N cosh (1 / k ) ≥ 1 / d , avec d = et k =
δ −2
s −1 Ωs

cosh −1 (1 / d )
L’égalité précédente donne, N ≥
cosh −1 (1 / k )
Exemple :
Pour illustrer la conception par le gabarit de Chebyshev, on prend le même exemple précédent
[1].

(i) Méthode de l’invariance impulsionnelle :


cos( N cos −1 (Ω)), Ω ≤1
D’après le polynome de Chebyshev, nous écrivons : V N (Ω) =  −1
cosh( N cosh (Ω)), Ω >1

Pour Ap= 1dB et As=15dB, on a


20 log10 ( H a ( jΩ) ) ≥ − A p = −1
 (2.42)
20 log10 ( H a ( jΩ) ) ≤ − As = −15

Alors

( )
ε 2 cos 2 N cos −1 (1) = 10 0.1 Ap − 1
 2
( )
(2.43)
ε cosh N cosh (Ω s / Ω p ) = 10
−1
2 0.1 As
−1

Pour Ω = Ω c = Ω p , cos 2 ( N cos −1 (1)) = cos 2 ( N .0 ) = 1 ⇒ ε 2 = 10 − 1 ⇒ δ p = ε = 0.508847


0.1 A p

10 0.1 As − 1 10 0.1 As − 1
( )
cosh 2 N cosh −1 (Ω s / Ω p ) = ⇒ cosh (N cosh −1 (Ω s / Ω p ) ) =
−1 −1
0.1 Ap 0.1 Ap
10 10
En prenant le cosh-1 des deux cotés, on obtient

27
Master 1 INST et ESEM Traitement avancé du signal

cosh −1  (10 0.1 As − 1) /(10 − 1) 


0.1 A p

N≥   =3.19 (2.44)
cosh −1 (Ω s / Ω p )
Donc, on prend N=4. On suppose que les spécifications de la bande passante sont satisfaites.
Ω c = 0.2π = 0.628318
α = 4.1702
a = 0.3646
b = 1.0644

ε = 0.508841

Les paramètres du filtre de Chebyshev Ω c = 0.2π = 0.6283 sont utilisés pour les calculs des
N = 4

pôles sk , k=0, …, N-1. D’où
s0,1= -0.0877 ± j0.6179
s2,3= -0.2117 ± j0.2559
La F.T correspondante est
0.038286
H a (s) =
( )( )
(2.45)
s + 0.4233s + 0.1103 s 2 + 0.17535s + 0.3894
2

La fonction de transfert du filtre numérique est finalement obtenue par :


0.08327 + 0.0239 z −1 0.08327 + 0.0246 z −1
H ( z) = + (2.46)
1 − 1.5658 z −1 + 0.6549 z −2 1 − 1.4934 z −1 + 0.8392 z − 2

(ii) Méthode de la transformation bilinéaire :


Dans ce cas, les spécifications sur le filtre analogique sont
  0.2π 
20 log10 j 2 tan   ≥ −1
  2 
 (2.47)
20 log j 2 tan  0.3π  ≤ −15
 10  
  2 

Donc, Ω c = 2 tan(0.2π / 2) = 0.3142 , ε = 0.50885 et N=4. Les pôles sont


s0,1= -0.0188 ± 0.1280i
s2,3= -0.0453 ± 0.1280i
Alors la F.T devient
0.04381
H a (s) =
( )( )
(2.48)
s + 0.1814 s + 0.4166 s 2 + 0.4378s + 0.1180
2

28
Master 1 INST et ESEM Traitement avancé du signal

1 − z −1
En remplaçant, s = 2 , la fonction de transfert du filtre numérique est finalement
1 + z −1
obtenue par :
0.001836(1 + z −1 ) 4
H ( z) = (2.49)
(1 − 1.4996 z −1 + 0.8482 z −2 )(1 − 1.5548 z −1 + 0.6493 z − 2 )
M N
La fonction de récurrence y (n) = ∑ a k x(n − k ) − ∑ bk y (n − k ) y(n) est demandée pour
k =0 k =1

fonctionner le filtre donné par (2.49).

2.5. Transformations fréquentielles des filtres RII


Les exemples des filtres numériques RII précédents sont réalisés à l’aide des méthodes
de l’invariance impulsionnelle et de la transformation bilinéaire. Ces filtres sont inspirés à
partir des systèmes analogiques ayant les propriétés de sélection des fréquences passe-bas.
Les réponses des filtres idéaux les plus utilisés sont montrées par la Fig. 2.9.

H ( e jω )

1
Passe-bas

ωp π ω
H ( e jω )

1
Passe-haut

ωp π ω
H ( e jω )

1
Bande passante

ω1 ω2 π ω
H ( e jω )

1
Bande d’arrêt

ω1 ω2 π ω

Fig. 2.9 Réponses fréquentielles des filtres idéaux

29
Master 1 INST et ESEM Traitement avancé du signal

Par l’utilisation des techniques de transformations rationnelles [1], les différents filtres
montrés par la Fig. 2.9 peuvent être réalisés à partir d’un filtre numérique passe-bas a déjà
réalisé. La Table 2.1 montre les transformations correspondantes.

Table. 2.1 Transformation à partir du prototype du filtre numérique passe-bas


de fréquence de coupure θ p avec ω p , ω1 and ω 2 : fréquence de coupure désirée [1]

Type de filtre Transformation Formules associée de conception

z −1 − α α = sin ((θ p − ω p ) / 2) / sin ((θ p + ω p ) / 2)


z −1 =
Passe-bas 1 − αz −1

−1 z −1 + α α = − cos((ω p + θ p ) / 2 ) / cos((ω p − θ p ) / 2)
z =−
Passe-haut 1 + αz −1

2αk −1 k − 1 α = cos((ω 2 + ω1 ) / 2) / cos((ω 2 − ω1 ) / 2)


z −2 − z +
z −1 =− k +1 k +1
Passe-bande
k − 1 − 2 2αk −1 et
z − z +1
k +1 k +1 k = cot ((ω 2 − ω1 ) / 2 ) tan (θ p / 2 )

2α −1 1 − k α = cos((ω 2 + ω1 ) / 2) / cos((ω 2 − ω1 ) / 2)
z −2 − z +
z −1 = k +1 k +1
Stop-bande
k − 1 − 2 2αk −1 et
z − z +1
k +1 k +1 k = tan ((ω 2 − ω1 ) / 2 ) tan (θ p / 2 )

Exemple :
Pour obtenir un filtre passe-haut à partir du filtre de Chebyshev, en donnant comme exemple
une fréquence de coupure θ p = 0.2π et Hl(z) suivantes :

0.001836(1 + z −1 ) 4
H l ( z) = (2.50)
(1 − 1.5548 z −1 + 0.6493 z − 2 )(1 − 1.4996 z −1 + 0.8482 z −2 )

Si la fréquence de coupure désirée du filtre désiré passe-haut est, ω p = 0.6π , on obtient à

partir de la Table
α = − cos((0.2π + 0.6π ) / 2) / cos((0.6π − 0.2π ) / 2) =-0.38197
En remplaçant cette dernière dans Hl(z), on trouve
0.02426(1 + z −1 ) 4
H d ( z ) = H l ( z ) z −1 = − z −1 −0.38197 = (2.51)
1− 0.38197 z −1 (1 − 1.0416 z −1 + 0.4019 z −2 )(1 − 0.5561z −1 + 0.7647 z −2 )

30
Master 1 INST et ESEM Traitement avancé du signal

2. 6 Commandes Matlab [3] :


Pour savoir les commandes Matlab de conception des filtres RII, on considère les exemples
suivants.

(i) Filtre de Butterworth :


La commande ‘butter’ est utilisée
clear all;clc;
N=6;
wc=0.7032;
[b a]=butter(N,wc/pi);
figure(1);
freqz(b,a)
axis([0 1 -30 0]);

(ii) Filtre de Chebyshev:


La commande ‘cheby1’ désigne le filtre de Chebyshev type1.
Clear all;clc ;
N=6;
wc=0.6498;
[b2,a2] = cheby1(4,0.50885,wc/pi);
figure(3);
freqz(b2,a2);
axis([0 1 -30 0])

31
Master 1 INST et ESEM Traitement avancé du signal

2. 7 Exercices de TD :

Ex#1 :
On veut concevoir un filtre numérique passe-bas à partir d’un filtre analogique de Butterworth
en utilisant la méthode de transformation bilinéaire. Les spécifications du filtre analogique
sont les suivantes :
- Une atténuation de 3dB à Ω =0.25 π
- Une atténuation de 10dB à Ω =0.45 π

Ex#2 :
On veut concevoir un filtre numérique passe-bas à partir d’un filtre analogique de Butterworth
en utilisant la méthode basée sur la méthode de l’invariance impulsionnelle. Les spécifications
du filtre analogique sont les suivantes :
- Une atténuation de 1dB à Ω =0.25 π
- Une atténuation de 10dB à Ω =0.45 π

Ex#3 :
On veut concevoir un filtre numérique passe-bas à partir d’un filtre analogique de Chebyshev
en utilisant la méthode de l’invariance impulsionnelle. Les spécifications du filtre analogique
sont les suivantes :
- Une atténuation de 3dB à Ω =0.2 π
- Une atténuation de 10dB à Ω =0.4 π
Calculer N, Ω c et les pôles dont la partie réelle est négative ainsi que la fonction de transfert
du filtre analogique et numérique en supposant que les spécifications de la bande passante
sont satisfaites.

Ex#4 :
On veut concevoir un filtre numérique passe-bas à partir d’un filtre analogique de Chebyshev
en utilisant la méthode basée sur la transformation bilinéaire. Les spécifications du filtre
analogique sont les suivantes :
- Une atténuation de 1dB à Ω =0.25 π
- Une atténuation de 10dB à Ω =0.45 π

32
Master 1 INST et ESEM Traitement avancé du signal

Chapitre 3
Filtres Numériques RIF

3. 1 Introduction
On a vu dans le chapitre précédent la conception des filtres RII. Bien que ces filtres
possèdent des avantages, ils ont aussi des inconvénients. Par exemple, si on veut utiliser
l’avantage de la rapidité de la FFT, ceci n’est pas possible et donc on doit utiliser un filtre
RIF. D’autre part, il est clair qu’avec un filtre RII, il n’est pas possible d’obtenir une phase
linéaire. Avec un filtre RIF, il est possible d’obtenir exactement une phase linéaire.
La fonction de transfert d’un filtre RIF causal est de la forme
N −1
H ( z ) = ∑ h( n ) z − n (3.1)
n =0

H(z) est un polynôme en z-1 de degré N-1. Donc H(z) a (N-1) zéros qui sont situés dans le plan
Z et (N-1) pôles a z=0. La réponse fréquentielle H (e jw ) est le polynôme trigonométrique
N −1
H (e jw ) = ∑ h(n)e − jwn (3.2)
n =0

Chaque séquence finie est complètement spécifiée par N échantillons de sa transformée de


Fourier. Donc, la conception d’un filtre RIF est accomplie en trouvant soit les coefficients de
la réponse impulsionnelle ou N échantillons de sa réponse fréquentielle.
Si la réponse impulsionnelle satisfait la condition
h ( n) = h( N − 1 − n) (3.3)
Alors le filtre a une phase linéaire. En remplaçant (3.3) dans (3.2), on a
 − jω ( N −1) / 2   N − 1  ( N −3) / 2  N − 1 
e h 2  + ∑ 2h(n) cos ω (n − 2  , N impair
( )
H e jω

=
   n =0  
(3.4)
e − jω ( N −1) / 2 
N / 2 −1
 N − 1 
  ∑ 2h(n) cos ω (n − 2 , N pair
  n =0  
La condition de (3.3) implique un décalage de la phase linéaire qui correspond à un retard de
(N-1)/2 échantillons. Si N est impair, le décalage de la phase correspond à un retard d’un
nombre entier d’échantillons. Si N est pair, ce retard correspond à un nombre entier plus un

33
Master 1 INST et ESEM Traitement avancé du signal

demi-échantillon. Cette distinction entre N pair et impair est d’une grande importance.
Quelques exemples sont montrés par la Fig. 3.1.
h(n)

N impair

0 N -1 N-1 n
2
h(n)

N pair

0 N -1 N-1 n
2
Fig. 3.1 Réponses impulsionnelles typiques pour des filtres RIF à phase linéaire

3. 2 Conception des filtres RIF par la méthode de fenêtrage


Une approche directe pour obtenir une réponse impulsionnelle finie est de tronquer une
réponse impulsionnelle infinie. Si on suppose que H d (e jω ) est une réponse fréquentielle
idéale désirée, alors

( )
+∞
H d e jω = ∑ hd (n)e − jωn (3.5a)
n = −∞

Où hd(n) est la réponse impulsionnelle correspondante, i.e.,


π
hd (n ) = ∫π H (e )e dω
1 ω ω j j n
(3.5b)

d
− c

En général, H d (e jω ) pour un filtre à fréquences sélectives est une réponse constante avec des
discontinuités aux frontières entre les bandes. Dans ce cas, hd(n) est infinie et elle doit être
tronquée pour obtenir une réponse impulsionnelle finie. Equations (3.5) peuvent être
considérée comme la représentation de la série de Fourier de la réponse fréquentielle
périodique H d (e jω ) avec hd(n) comme les coefficients de Fourier. Si hd(n) est infinie, une

34
Master 1 INST et ESEM Traitement avancé du signal

façon d’obtenir une réponse impulsionnelle h(n) causale et finie est de tronquer simplement
hd(n) comme
h ( n ) 0 ≤ n ≤ N - 1
h ( n) =  d (3.6)
0 ailleurs

En général, on peut représenter h(n) comme le produit de la réponse impulsionnelle désirée


hd(n) avec une « fenêtre » w(n) i.e.,

h(n) = hd (n) w(n) (3.7)



1 0 ≤ n ≤ N -1
w(n) =  (3.8)
0 ailleurs
En utilisant la convolution complexe

( )
H e jω =
1 π jθ
∫ H d (e )W (e
2π −π
j (ω −θ )
)dθ (3.9)

( )
C’est-à-dire H e jω est la convolution périodique continue de la réponse fréquentielle désirée

avec la T.F de la fenêtre. A partir de (3.9), on voit que si W (e jω ) est étroit comparé aux

( ) ( ) ( )
variations dans H d e jω , alors H e jω ressemble plus à H d e jω . Donc, le choix de la fenêtre
est dicté (inspiré) par le désir d’avoir w(n) la plus courte possible pour des raisons de calcul et
W (e jω ) aussi étroit que possible en fréquence pour être la plus proche possible de la réponse
désirée. Ce sont deux conditions contradictoires. Dans le cas d’une fenêtre rectangulaire, on a
1 − e − jωN
( )
N −1
W e jω = ∑ e − jωn =
n =0 1 − e − jω
(3.10)
− jω ( N −1) / 2 sin(ωN / 2)
=e
sin(ω / 2)

1− qN
N −1
(i.e., le résultat de la série géométrique, ∑ q = n
est utilisée dans (3.10))
n =0 1− q

( )
Fig. 3.2 trace les fonctions typiques H d e jω et W (e jω −θ ) nécessaires dans (3.9). Le module

de W (e jω ) est montrée par la Fig. 3.3 pour N=8.


A partir de (3.10), il est clair que la phase est linéaire. Plus N augmente, plus la largeur du
lobe principal diminue ( − 2π / N ,2π / N ). Cependant, pour une fenêtre rectangulaire, les lobes
secondaires ne sont pas insignifiants et si N augmente, les pics d’amplitude des lobes
principale et secondaire augmentent de telle façon que la surface sous chaque lobe est la
même. En faisant la transition d’une manière souple entre 1 et 0. Les hauteurs des lobes

35
Master 1 INST et ESEM Traitement avancé du signal

secondaires peut être diminuée ou dépend d’un lobe principal plus large et donc bande de
transition plus large.

W (e j (ω −θ ) )
(a)
H d (e jθ )

π 2π
θ
ω

H (e jθ )
(b)

π 2π
ω

Fig. 3.2 (a) Processus de convolution impliqué par la troncature de la réponse impulsionnelle désirée
(b) Approximation typique résultante à partir de la réponse impulsionnelle désirée fenêtrée

sin(ωN / 2)
sin(ω / 2)
N=8
N=8

2π 2π 2π ω

N N

Fig. 3.3 Module de la T.F de la fenêtre rectangulaire pour N=8.

Quelques exemples des fenêtres les plus utilisées pour 0 ≤ n ≤ N − 1 sont données par la Fig.
3.4.
- Fenêtre rectangulaire: w(n) = 1

 2n
 N − 1
- Fenêtre de Bartlett: w(n) = 
2 − 2 n
 N −1

36
Master 1 INST et ESEM Traitement avancé du signal

w(n)

Rectangulaire
Hamming

Bartlett

Hanning Blackman

n
N −1 N-1
0
2
Fig. 3. 4 Fenêtres usuelles pour la troncature de hd(n)

1  2πn 
- Fenêtre de Hanning: w(n) = 1 − cos 
2  N − 1 

 2πn 
- Fenêtre de Hamming: w(n) = 0.54 − 0.46 cos 
 N −1

 2πn   4πn 
- Fenêtre de Blackman: w(n) = 0.42 − 0.5 cos  + 0.08 cos 
 N −1  N −1

Pour les fenêtres de troncature citées précédemment, les paramètres de base pour la
conception d‘un filtre passe-bas sont résumés dans la Table 3.3. Il est bien noté que les
valeurs dans ce tableau sont approximatives et qui dépendent seulement de N et la fréquence
de coupure.

Table. 3.3 Caractéristiques des fenêtres de troncature

Fenêtre Pic d’amplitude du lobe Largeur de transition Atténuation minimale de la


secondaire (dB) du lobe principal bande d’arrêt (dB)
Rectangulaire -13 4 π /N -21
Bartlett -25 8 π /N -25
Hanning -31 8 π /N -44
Hamming -41 8 π /N -53
Blackman -57 12 π /N -74

37
Master 1 INST et ESEM Traitement avancé du signal

Réponse impulsionnelle d’un filtre RIF à phase linéaire :


On considère un filtre passe-bas à phase linéaire causal. La réponse fréquentielle désirée est
donnée par
− jωα
ω ≤ ωc
Hd (e ) = e

(3.11)
0 ailleurs

La réponse impulsionnelle correspondante est donnée par


1 ωc jω (n -α ) sin (ω c (n − α ) )
hd (n ) = ∫ e dω. = n≠α (3.12)
2π −ωc π (n − α )
Clairement, hd(n) a une durée infinie. Pour créer un filtre linéaire causal à phase linéaire de
durée N finie, on définie
h(n) = hd (n).w(n) (3.13)

N −1
où α = (condition de la phase linéaire).
2
Il est facile de vérifier que si w(n) est symétrique, le choix de α résulte en une séquence h(n)
qui satisfait l’équation (3.3).

3. 3 Conception des filtres RIF par l’échantillonnage fréquentiel


On a déjà vu qu’une séquence finie peut être représenté par sa transformée de Fourier
discrète. Donc, les filtres RIF ont une représentation en termes d’échantillons en fréquence.
N −1 2π
~ −j kn
H (k ) = H ( z ) z = e j 2Nπ k = ∑ h(n)e N , k=0, 1, …, N-1 (3.14)
n=0

H(z) peut être représentée par ses échantillons selon l’expression


~
1 − z − N N −1 H (k )
H ( z) = ∑ 2π
(3.15)
N k =0 j k
1 − e N z −1
Si z = e jω , on obtient la réponse fréquentielle
~
jω 1 − e − jωN N −1 H (k )
H (e ) = ∑ 2π
N k =0 j k
1 − e N e − jω
N  2π 
N −1
sin   ω − k (3.16)
N 
− jω  1
jπk  1− 
=
e 2 N −1
~ 2
∑ H ( k )e  N
N k =0 1  2π 
sin   ω − k
2  N 


~ j k
H (k ) = H d (e N ) , k=0, 1, …, N-1 (3.17)

38
Master 1 INST et ESEM Traitement avancé du signal

L’approche est donc de spécifier le filtre en termes de ces échantillons d’une seule période de
sa réponse désirée (Fig. 3.11).

~ ~
H d (e jω ) , H (k ) H d (e jω ) , H (k )

π π
Fig. 3. 11. Echantillons de la réponse fréquentielle du filtre passe-bas idéal
(a) Echantillonnage sans transition
(b) Echantillonnage avec transition

La phase est supposée linéaire avec une durée de (N-1)/2 échantillons. La réponse
impulsionnelle peut être obtenues utilisant la transformée de Fourier inverse discrète comme

1 N −1 ~ j kn
h ( n) = ∑ H ( k )e N , n=0, 1, …, N-1 (3.17)
N k =0
Les réponses désirées des filtres idéaux considérés dans le domaine de traitement du signal
sont montrées par la Fig. 3. 12. La table. 3. 4 montre les comparaisons entre les filtres RII et
les filtres RIF qui peuvent rencontrer dans la pratique.
H ( e jω )

1
Filtre passe-bas idéal

- π - ωc 0 ωc π ω

H ( e jω )

1
Filtre passe-haut idéal

-π - ωc 0 ωc π ω

39
Master 1 INST et ESEM Traitement avancé du signal

H ( e jω )

1
Filtre Passe-bande idéal

- π - ω1 - ω2 ω1 ω2 π ω

H ( e jω )

1
Filtre à bande d’arrêt idéal

-π ω1 ω2 π ω
0

Fig. 3. 12 Réponses fréquentielles des filtres idéaux

Table. 3.4 Comparaisons des filtres RII et RIF

40
Master 1 INST et ESEM Traitement avancé du signal

3. 4 Exercices de TD :

Ex #1 :
Calculer la réponse impulsionnelle d’un filtre passe-bas RIF (Fig. 1) à phase linéaire avec les
hypothèses suivantes :
N=8, ω c =0.25 π et l’utilisation de la fenêtre de Hamming ci-dessous

 2πn 
w(n) = 0.54 − 0.46 cos  , 0 ≤ n < N −1
 N −1
H d (e jω )

− ωc ωc ω

Fig. 1: Filtre passe-bas RIF


Ex #2 :
On veut aussi concevoir un filtre passe bas RIF à phase linéaire (Fig. 1) mais avec l’utilisation
de la fenêtre de Hanning avec
N= 7, ω c =0.2 π

1) Calculer les coefficients de la réponse impulsionnelle.


2) Calculer la phase et l'amplitude de la réponse fréquentielle.

Ex #3 :
On veut concevoir un filtre passe-bande RIF (Fig. 2) à phase linéaire en utilisant la fenêtre de
Hamming avec
N= 7, ω c 1=0.2 π et ω c 2=0.4 π
1) Calculer les coefficients de la réponse impulsionnelle.
2) Calculer la phase et l'amplitude de la réponse fréquentielle.

H d (e jω )

− ω 2 - ω1 ω1 ω 2 ω

Fig. 2 : Filtre passe-bande RIF

41
Master 1 INST et ESEM Traitement avancé du signal

Chapitre 4
Signaux aléatoires et processus
stochastiques

4. 1. Introduction
Un processus aléatoire (ou processus stochastique) peut être vu comme une collection des
variables aléatoires avec un temps, t comme paramètre de toutes valeurs réelles. Pareillement,
un processus aléatoire P.A est le résultat d’un événement aléatoire. Pour un P.A, l’espace
d’échantillons peut être transformé en une famille des fonctions du temps. Formellement, on
dit qu’un processus aléatoire X(t) est une transformation des éléments de l’espace
d’échantillons aux fonctions de temps. Chaque élément de l’espace d’échantillons est associé
avec une fonction du temps comme montré par la Fig. 1.
x1(t)

S x2(t)
ξ1
t
ξ2
ξk x3(t)

Fig. 4. 1. Transformation de l’espace d’échantillons en des fonctions statistiques

L’association d’une fonction du temps à chaque élément de l’espace d’échantillons résulte


dans la famille de fonctions du temps appelé ensemble. D’où, l’ensemble est une série des
fonctions statistiques avec des probabilités associées. Il est bien noté que le processus
aléatoire peut représenter par X(t) et non par X(t, ξ ) où la dépendance sur ξ est négligé. La
fonction échantillon est représentée par x(t).

42
Master 1 INST et ESEM Traitement avancé du signal

Exemple. 1 : On considère un processus aléatoire, X (t ) = A cos(ωt + θ ) , où Θ est une variable


aléatoire uniformément distribuée entre 0 et 2π (Fig. 2).
f Θ (θ )
1

θ

Fig. 4.2 Fonction de densité de Θ

Quelques fonctions d’échantillons pour ce processus aléatoire sont montrées par la Fig. 3. Cette
variation dans les fonctions d’échantillons de ce processus aléatoire particulier est due seulement à la
phase. Tel processus aléatoire dans lequel les valeurs futures sont prédites à partir de la connaissance
des valeurs passées est dit d’être prédictif ou déterministe. En réalité, en fixant la phase à une valeur
particulière, π / 4 , la fonction d’échantillon qui correspond à un élément particulier, ξ k de l’espace

d’échantillons devient une fonction du temps déterministe qui est X (t ) = A cos(ωt + π / 4) .

x1(t)

x2(t)

x3(t)

Fig. 4. 3 Quelques fonctions d’échantillons

Quant le paramètre t est fixé à l’instant t0, le processus aléatoire X(t) devient la variable
aléatoire X(t0) et x(t0) est la valeur échantillon de la variable aléatoire. En général, nous
sommes intéressés par quatre types de processus aléatoires selon la caractéristique du temps et
la variable aléatoire X(t) à l’instant t.

(i) Etat-continu et temps-continu (continuité dans l’espace et le temps): Dans ce cas, les
deux quantités X(t) et t ont des valeurs continues (Fig. 4).

43
Master 1 INST et ESEM Traitement avancé du signal

X(t)

Fig. 4 Processus aléatoire continu


(ii) Etat-discret et temps-continu : X(t) est supposé comme une séquence de valeurs discrètes
tandis que continu (Fig. 5).
X(t)

Fig. 5 Processus aléatoire discret

(iii) Etat-continu et temps-discret : on suppose que X(t) a des valeurs continues tandis que t
prend des valeurs discrètes (Fig. 6).
X(t)

Fig. 4. 6 Séquence aléatoire continue

(iv) Etat-discret et temps-discret : les deux X(t) et t sont supposés d’un ensemble de valeurs
discrètes (Fig. 8).
X(t)

Fig. 4.7 Séquence aléatoire continue

En fixant le temps t, le processus aléatoire X(t) devient une variable aléatoire. Dans ce cas,
plusieurs techniques peuvent être utilisées avec ces variables aléatoires. Par conséquent, on
peut caractériser un processus aléatoire par une distribution du premier ordre.
FX ( x; t ) = P[ X (t 0 ) ≤ x] (4.1)
Ou par la densité du premier ordre

f X ( x; t ) = F X ( x, t )
d
(4.2)
dx
Pour toutes valeurs possibles de t

44
Master 1 INST et ESEM Traitement avancé du signal

La distribution de deuxième ordre est la distribution jointe de deux variables aléatoires X(t1) et
X(t2) pour chaque t1 et t2. Ceci donne
F X 1 , X 2 ( x1 , x 2 ; t1 , t 2 ) = P[ X (t1 ) ≤ x1 and X (t 2 ) ≤ x 2 ] (4.3)

Et la densité de deuxième ordre devient


∂2
f X 1 , X 2 ( x1 , x2 ; t1 , t 2 ) = FX ( x1 , x 2 ; t1 , t 2 ) (4.4)
∂x1∂x 2
Normalement, la description probabiliste complète pour un processus aléatoire arbitraire
nécessite les spécifications des distributions de toutes autres données par
FX 1 , X 2 ,..., X n ( x1 , x 2 ,..., x n ; t1 , t 2 ,..., t n ) = P[ X (t1 ) ≤ x1 , X (t 2 ) ≤ x 2 ,..., X (t n ) ≤ x n ] (4.5)

La densité correspondante d’ordre n devient


∂ n FX1 , X 2 ,..., X n ( x1 , x2 ,..., x n ; t1 , t 2 ,..., t n )
f X 1 , X 2 ,..., X n ( x1 , x 2 ,..., xn ; t1 , t 2 ,..., t n ) = (4.6)
∂x1∂x2 ..., ∂x n
Heureusement, nous somme toujours intéressés aux processus qui possèdent quelques
régularités dans le quel ils peuvent être décrits simplement par la connaissance des fonctions
densités d’ordre 1 et 2. Ces dernières peuvent être utiles et suffisantes de générer des
fonctions densités d’ordre supérieur.

4. 2. Espérances mathématiques
Dans plusieurs problèmes d’intérêt, seulement les statistiques d’ordre 1 et 2 sont
nécessaires pour caractériser un processus aléatoire. Etant donné un processus aléatoire réel
X(t), sa valeur moyenne est
+∞
m x (t ) = E [X (t )] = ∫ xf X ( x; t )dx (4.7)
−∞

La fonction d’autocorrélation est définie par


+∞ +∞
R xx (t1 , t 2 ) = E [ X (t1 ) X (t 2 )] = ∫ ∫ x1 x 2 f X 1 , X 2 ( x1 , x 2 ; t1 , t 2 )dx (4.8)
− ∞ −∞

Quand la fonction d’autocorrélation R xx (t1 , t 2 ) du processus aléatoire X(t) dépend seulement

par la différence de temps t1 − t 2 et la moyenne mx est constante, X(t) est dite stationnaire au

sens large. Dans ce cas, R xx (t1 , t 2 ) est exprimée en fonction d’une seule variable τ = t1 − t 2 .

Prenant t 2 = t et t1 = t + τ , on obtient
R xx (t + τ , t ) = R xx (τ ) (4.9)

45
Master 1 INST et ESEM Traitement avancé du signal

Le processus aléatoire X(t) est stationnaire au sens strict si ses statistiques sont inchangeables
par le décalage de temps dans le temps d’origine. Notant que la stationnarité d’un processus
au sens strict implique sa stationnarité au sens large, mais le contraire n’est possible. Une
stationnarité au sens large est plus faible qu’une stationnarité au second ordre car, pour les
processus stationnaires au sens large, seule la statistique d’ordre 2, c’est-à-dire la fonction
d’autocorrélation, est concernée par la contrainte.
Quant on fait le traitement de deux processus stochastiques X(t) et Y(t), on dit qu’ils
sont jointement stationnaires au sens large si chaque processus est stationnaire au sens large
R xy (t + τ , t ) = E [ X (t + τ )Y (t )] (4.10)

R XY (t1 , t 2 ) représente la fonction d’intercorrélation de X(t) et Y(t). On définie aussi la fonction


de covariance C xx (t1 , t 2 ) et la fonction d’intercovariance C xy (t1 , t 2 ) entre X(t) et Y(t) comme

C xx (t1 , t 2 ) = E{[ X (t1 ) − m x (t1 )][ X (t 2 ) − m x (t 2 )]} (4.11)


et
[ ]
C xy (t1 , t 2 ) = E { X (t1 ) − m x (t1 )][Y (t 2 ) − m y (t 2 ) } (4.12)

S Z(t) est un processus aléatoire complexe tel que Z(t)=Xt)+jY(t), les fonctions
d’autocorrélation et d’intercorrélation de Z(t) sont
[
R zz (t1 , t 2 ) = E Z (t1 ) Z * (t 2 ) ] (4.13)
et
{
C zz (t1 , t 2 ) = E [Z (t1 ) − m z (t1 )][ Z (t 2 ) − m z (t 2 )]
*
} (4.14)
Où * dénote le conjugué du nombre complexe et mz(t) est la fonction moyenne de Z(t).
Les fonctions d’intercorrélation et d’intercovariance entre le processus aléatoire complexe
Z(t) et un autre processus aléatoire complexe W(t), W(t)=U(t)+jV(t) est
[
R zw (t1 , t 2 ) = E Z (t1 )W * (t 2 ) ] (4.15)
et
{
C zw (t1 , t 2 ) = E [Z (t1 ) − m z (t1 )][W (t 2 ) − mw (t 2 )]
*
} (4.16)

4.3. Propriétés des fonctions de corrélation


Les fonctions d’autocorrélation et d’intercorrélation introduits précédemment sont très
importantes pour définir et caractériser un processus aléatoire. Dans cette section, on étudie
quelques propriétés qui sont les plus pertinentes sans donner aucune démonstration formelle.

46
Master 1 INST et ESEM Traitement avancé du signal

4. 3.1 Fonction d’autocorrélation


Les propriétés de cette fonction sont
R xx (t 2 , t1 ) = R xx* (t1 , t 2 ) (4.17)
Si X(t) est réelle, alors la fonction d’autocorrélation est symétrique autour de la line t1=t2 dans
le plan (t1, t2 ) qui est
R xx (t 2 , t1 ) = R xx (t1 , t 2 ) (4.18)
La valeur de la fonction moyenne carrée du processus aléatoire X(t) est toujours positive qui
est

[
R xx (t1 , t1 ) = E X (t1 ) X * (t1 ) = E X (t ) ] [ 2
]≥ 0 (4.19)

[
Si X(t) est réel, la valeur moyenne carrée E X (t ) 2 est toujours non négative ]
R xx (t1 , t 2 ) ≤ R xx (t1 , t1 ) R xx (t 2 , t 2 ) (4.20)

Ceci est connu comme l’égalité de Scharz et peut être écrite comme

[ ][ ] n
R xx (t1 , t 2 ) ≤ E X (t1 ) E X (t 2 ) ∑ ∑ a i a *j R xx (t i , t j ) ≥ 0
2 2 2

j =1 i =1
n
(4.21)

L’autocorrélation est une fonction définie non négative pour un ensemble de constants a1, a2,
…, an et un ensemble de temps t1, t2, …, tn.
n n

∑∑ a a
j =1 i =1
i
*
j R xx ( t i ,t j ) ≥ 0 (4.22)

4. 2 Fonction d’intercorrélation
Considérant X(t) et Y(t) sont deux processus aléatoires, alors
R xy ( t1 ,t 2 ) = R*yx ( t 2 ,t1 ) (4.23)

Si les processus aléatoires X(t) et Y(t) sont réels


R xy (t1 , t 2 ) = R yx (t 2 , t1 ) (4.24)

En général, Rxy (t1 , t 2 ) et R yx (t 2 , t1 ) ne sont pas égaux

R xy (t1 , t 2 ) = E [X (t1 )]E [Y (t 2 )] ≤ R xx (t1 , t1 ) R yy (t 2 , t 2 ) = E X (t1 ) E Y (t 2 ) [ 2


][ 2
] (4.25)

4. 3 Stationnarité au sens large


Maintenant, on considère les processus X(t) et Y(t) d’être réels et stationnaires au sens large.
La fonction d’autocorrélation est une fonction de τ paire qui est
R xx (−τ ) = R xx (τ ) (4.26)

R xx (0) = E X (t ) [ 2
] (4.27)

47
Master 1 INST et ESEM Traitement avancé du signal

Avec X(t) est réel


[ ]
R xx (0) = E X 2 (t ) = σ x2 + m x2 ≥ 0 (4.28)

La fonction d’autocorrélation à τ = 0 est constante et égale à la valeur moyenne carrée


R xx (τ ) ≤ R xx (0) (4.29)

La valeur maximale de a fonction d’autocorrélation à τ = 0 est non négative comme montré


par la Fig. 8.
R xx (τ )
E[ X 2 ]

0 τ

Fig. 4. 8 : Fonction d’autocorrélation possible

Si X(t) a une composante dc (valeur moyenne non nulle), alors Rxx( τ ) a une composante
constante. Ceci provient du fait que deux observations du processus stationnaire au sens large
peut devenir non corrélé quant τ → ∞ . Dans ce cas, la fonction de covariance tends vers a
zéro.

lim C xx (τ ) = E{[ X (t + τ ) − m x ][ X (t ) − m x ]}
τ →∞
(4.30)
= R xx (τ ) − m 2
x

Ou

R xx (τ ) = m x
2
lim (4.31)
τ →∞

Si X(t) et Y(t) sont jointement stationnaires au sens large, des propriétés similaires peuvent
être obtenues
R xy* (−τ ) = R yx (τ ) (4.32)
2
R xy (τ ) ≤ R xx (0) R yy (0) (4.33)

R xy (0) = R *yx (0) (4.34)

Si X(t) et Y(t) sont des processus aléatoires réels, alors


R xx (0) + R yy (0)
R xy (τ ) ≤ (4.35)
2

48
Master 1 INST et ESEM Traitement avancé du signal

4. 3. 4 Exemples de processus aléatoires


Dans cette section, on va étudier certains types des processus aléatoires qui peuvent
caractérisés quelques applications en traitement du signal.

3.4.1 Processus aléatoire à mono-impulsion


Dans les applications radar et sonar, le signal de retour peut être caractérisé comme un
processus aléatoire constituant d’une impulsion de forme connue tandis que l’amplitude et le
temps d’arrivé (phase) sont des variables aléatoires. L’impulsion est exprimée par
X (t ) = AS (t − Θ) (4.36)
Les v.a A et Θ sont statistiquement indépendants et s(t) est une fonction déterministe. La
fonction d’échantillon est représentée comme montré par la Fig. 9.

x(t)

Fig. 9 : L’impulsion x(t)

La valeur moyenne de ce processus aléatoire particulier est


E [X (t )] = E [AS (t − Θ)] (4.37)
Sachant que A et Θ sont indépendants, on peut écrire
+∞
E [ X (t )] = E[ A]E[S (t − Θ)] = E [ A] ∫ s (t − θ ) f Θ (θ )dθ (4.38)
−∞

+∞

∫ s(t − θ ) f Θ (θ )dθ est la convolution de s(t) avec f Θ (θ ) . Alors


−∞

E [ X (t )] = E[ A]s (t ) * f Θ (θ ) (4.39)
Similairement, la fonction d’autocorrélation est donnée par

[ ]
+∞
R xx (t1 , t 2 ) = E A 2 ∫ s (t1 − θ ) s (t 2 − θ ) f Θ (θ )dθ (4.40)
−∞

Si le temps d’arrivé est connu à une valeur de θ 0 , alors la moyenne et l’autocorrélation sont

E [ X (t )] = E[ A]s (t − θ 0 ) (4.41)
Et

49
Master 1 INST et ESEM Traitement avancé du signal

[ ]
R xx (t1 , t 2 ) = E A 2 s (t1 − θ 0 ) s (t 2 − θ 0 ) (4.42)
Un autre cas particulier est que le temps d’arrivé peut avoir une distribution uniforme sur
l’intervalle 0 à T . La moyenne et l’autocorrélation sont
E [ A] T
E [ X (t )] = ∫ s(t − θ )dθ (4.43)
T 0
et
E A2 T [ ]
R xx (t1 , t 2 ) =
T 0
∫ s(t1 − θ ) s(t 2 − θ )dθ (4.44)

4. 3.4.2 Processus aléatoire à multi-impulsion


Dans le cas des radars à multi impulsions, le processus aléatoire X(t) peut être exprimé
par
n
X (t ) = ∑ Ak S (t − Θ k ) (4.45)
k =1

Où Ak et Θ k sont des v.a indépendants. La moyenne et l’autocorrélation sont

E [ X (t )] = E  ∑ Ak S (t − Θ k ) = ∑ E [ Ak ]E [S (t − Θ k )]
n n

k =1  k =1
+∞
(4.46)
= nE [ Ak ] ∫ s (t − θ ) f Θ (θ )dθ = nE [ Ak ][s (t ) * f Θ (θ )]
−∞

et
n n 
R xx (t1 , t 2 ) = E  ∑ Ak S (t1 − Θ k ) ∑ A j S (t 2 − Θ j )
k =1 j =1 
[ ][ ]
n n
= ∑ ∑ E Ak A j E S (t1 − Θ k ) S (t 2 − Θ j )
k =1 j =1
(4.47)
[ ]
+∞
= nE A ∫ s (t1 − θ ) s (t 2 − θ ) f Θ (θ )dθ
2
k
−∞
+∞ +∞
+ (n 2 − n)(E [Ak ]) ∫ s (t1 − θ ) f Θ (θ )dθ ∫ s (t 2 − θ ) f Θ (θ )dθ
2

−∞ −∞

Si la v.a Θ est uniformément distribué sur [0, T], (46) et (47) deviennent
E [ Ak ] T
E [ X (t )] = n ∫ s(t − θ )dθ (4.48)
T 0
et

R xx (t1 , t 2 ) = n
[ ]
E Ak2 T
− θ − θ θ +
( n 2 − n) T T
s (t1 − θ )dθ ∫ s (t 2 − θ )dθ
T 0
∫ s (t 1 ) s (t 2 ) d
T 2 ∫ (4.49)
0 0

50
Master 1 INST et ESEM Traitement avancé du signal

4.4.3 Processus aléatoires périodiques


Le processus aléatoire X(t) est dit périodique de période T si ses fonctions
d’échantillons sont tous périodiques de période T.
Théorème : Si X(t) est stationnaire au sens large, alors la fonction d’autocorrélation est
périodique de période T, si est seulement si X(t) est périodique de période T et vice versa.

4.4.4 Le processus Gaussien


Le processus aléatoire X(t) est Gaussien si la v.a X(t1), X(t2), …, X(tn) sont jointement
Gaussiennes pour toutes les valeurs possibles de n et t1, t2, …, tn. Sachant que la v.a
Gaussiennes multi-variante dépond seulement sur le vecteur moyen et la matrice de
covariance, on observe que si X(t) est stationnaire au sens large, il est aussi stationnaire au
sens strict. Si X(t) est un processus aléatoire Gaussien appliqué au système linéaire invariant
avec la réponse impulsionnelle h(t), alors le processus de sortie est aussi Gaussien
+∞
Y (t ) = ∫ x(t − τ )h(τ )dτ (4.50)
−∞

Exemple :
En considérant le processus Gaussien X(t) de moyenne nulle est stationnaire au sens large.
X(t) représente l’entrée du système de détection quadratique (un système non linéaire sans
mémoire).
a) Vérifier que la sortie Y(t) est non-Gaussien
b) Déterminer la fonction d’autocorrélation R yy ( τ ) et la variance σ y2

Solution :
f Y ( y)
a) La fdp de X(t) est une loi Gaussienne donnée par
1 / 2σ 2
f X ( x; t ) = e−x
2

2π σ
La densité de la sortie Y(t) =X2(t) devient
y
1
f Y ( y; t ) = e − y / 2σ y≥0
2

2πyσ

f X ( x1 ) f X ( x2 ) Système
Où f Y ( y ) = '
+ '
X(t) non-linéaire
Y(t)
g ( x1 ) g ( x2 )

Avec g ( x) = x 2 et x1, 2 = ± y est utilisée

On remarque que la sotie du système non linéaire a une fonction densité non-Gaussienne.
b) L’autocorrélation de la sortie Y(t) =X2(t) est calculée comme

51
Master 1 INST et ESEM Traitement avancé du signal

[
R yy (t + τ , t ) = E[Y (t + τ )Y (t )] = E X 2 (t + τ ) X 2 (t ) ]
= E[ X (t + τ ) X (t + τ ) X (t ) X (t )]
On utilise le résultat suivant avec X1, X2, X3 et X4 sont des v.a jointement Gaussiennes de
valeur moyenne nulle.
E [ X 1 X 2 X 3 X 4 ] = E [X 1 X 2 ]E[ X 3 X 4 ] + E [X 2 X 3 ]E [X 1 X 4 ] + E [ X 1 X 3 ]E [ X 2 X 4 ]
alors
[ ][ ]
Ryy (t + τ , t ) = E X 2 (t + τ ) E X 2 (t ) + 2{E [ X (t + τ ) X (t )]} = Rxx2 (0) + 2 Rxx2 (τ )
2

La valeur moyenne quadratique de Y(t) devient

[ ] {[
E Y 2 (t ) = Ryy (0) = 3 E X 2 (t ) ]} = 3[R
2
xx (0)]
2

Aussi
[ ]
E [Y (t )] = E X 2 (t ) = R xx (0) = σ 2

[ ]
Alors la variance de Y(t) est σ y2 = E Y 2 (t ) − {E [Y (t )]} = 2[R xx (0)] = 2σ 4
2 2

4.4.5 Le processus de Poisson


Le processus de Poisson est utilisé pour modéliser dans des situations telles que les
particules alpha émises par matériau radioactif, nombre de pannes des composants d’un
système, personnes prises en charge dans un bureau de post et les appels reçus dans un
bureau. Ces événements peuvent être décrits par une fonction de comptage X(t), t>0 tel que
X(0)=0. Une fonction d’échantillon typique du processus de Poisson X(t), t>0 qui est une
amplitude discrète et temps continu est montrée par la Fig. 10. Le processus X(t) obéit au
processus de Poisson si il satisfait les conditions suivantes :

X(t)

4
3
2
1
0 t
t1 t2 t3 t4

Fig. 4. 10 : Fonction d’échantillon du processus de Poisson


1- X(t) est une fonction croissante à échelon avec des augmentations unitaires qui
représentent les événements à chaque instant tk, où k est un nombre de comptage fini.

52
Master 1 INST et ESEM Traitement avancé du signal

2- Pour n’importe quel temps t1 et t2 tel que t2>t1, le nombre d’événements réalisés dans
l’intervalle t1 et t2 suit la loi de Poisson donnée par

P[X (t 2 ) − X (t1 ) = k ] =
[λ (t 2 − t1 )]k exp(− λ (t − t1 ) ) , k=0, 1, … (4.51)
2
k!
3- Le nombre d’événement qui se produit dans n’importe quelle intervalle du temps est
indépendant du nombre des événement réalisés dans un autre intervalle de temps,

P[X (t ) = k ] =
[λt ]k
exp(− λt ) , k=0, 1, … (4.52)
k!
où X(t) est un processus incrémental indépendant

3.4.6 Le processus de Markov


Un processus stochastique devient un processus de Markov simple (ou Markov du
premier ordre) si pour n et une séquence de temps croissant t1<t2<, …<tn, nous avons
P[X (t n ) ≤ x n X (t n−1 ), ..., X (t1 )] = P[X (t n ) ≤ x n X (t n −1 )] (4.53)

Ou
fXn X n −1 , X n − 2 ,..., X 1
(X n X n −1 , X n − 2 ,..., X 1 ) = f X n X n−1
(X n X n −1 ) (4.54)

La densité jointe est donnée par


f ( x1 , x2 ) f ( x1 , x2 , x3 ) f ( x1 , x2 ,..., xn )
f ( x1 , x2 ,..., xn ) = f ( x1 ) ...
f ( x1 ) f ( x1 , x2 ) f ( x1 , x2 ,..., xn −1 ) (4.55)
= f ( x1 ) f (x2 x1 ) f (x3 x2 , x1 )... f (xn xn −1 ,..., x2 , x1 )

Si X(t) est un processus de Markov, alors

f ( x1 , x 2 ,..., x n ) = f ( x1 ) ∏ f (x k x k −1 )
n
(4.56)
k =2

Qui satisfait que le processus est complètement déterminé par la fonction densité du premier
ordre et les fonctions densités conditionnelles. La séquence des variables aléatoires est
Markovienne on peut écrire
E [X n X n −1 , X n −2 ,..., X n −k ] = E [X n X n −1 ] (4.57)

Aussi le processus de Markov est Markov dans le temps inverse


f (x n x n +1 , x n + 2 ,..., x n+ k ) = f (x n x n +1 ) (4.58)

Si le présent est connu dans le processus de Markov, le passé et le futur sont indépendants.
Pour m<k<n, on a
f (x m , x n x k ) = f (x m x k ) f (x n x k ) (4.59)

53
Master 1 INST et ESEM Traitement avancé du signal

4.5 Ergodicité
Un processus aléatoire est ergodique si toutes ses statistiques peuvent être déterminées (avec
une probabilité 1) à partir de la fonction d’échantillon du processus. C’est-à-dire l’ensemble
des moyennes égalent aux moyennes de temps correspondants avec une probabilité 1. Ceci est
un processus plus limité. Usuellement, nous ne sommes pas intéressés à l’estimation de tout
l’ensemble des moyennes du processus aléatoire, mais nous sommes encore concernés par des
formes d’ergodicités telles que l’ergodicité dans la moyenne et l’ergodicité dans
l’autocorrélation.

4.5.1 Ergodicté dans la moyenne


Un processus aléatoire X(t) est ergodique dans la moyenne si la valeur moyenne en temps de
la fonction d’échantillon x(t) est égale à la valeur moyenne de l’ensemble de la fonction.
E[ X (t )] = x(t ) (4.60)

Où le symbole . dénote la moyenne de temps, et x(t ) est définie par

1 T
x(t ) = lim ∫ x(t )dt (4.61)
T →∞ 2T −T
La condition nécessaire et suffisante pour que le processus X(t) est ergodique dans la
moyenne est
1 T
lim ∫ R xx (τ )dτ = m x2 (4.62)
T → ∞ 2T −T

Où m x = E[ X (t )] est la valeur moyenne de X(t)

4.5.1 Ergodicté dans l’autocorrélation


Le processus aléatoire X(t) est ergodique dans l’autocorrélation si
R xx (τ ) = x(t + τ ) x(t ) (4.63)

x(t + τ ) x(t ) désigne la moyenne en temps de la fonction d’autocorrélation de la fonction

d’échantillon x(t) qui est définie par


1 T
x(t + τ ) x(t ) = lim ∫ x(t + τ ) x(t )dt (4.64)
T →∞ 2T −T

La condition nécessaire et suffisante pour l’ergodicité dans l’autocorrélation est que les
variables aléatoires x(t + τ ) x(t ) et x(t + τ + α ) x(t + α ) deviennent non corrélées pour chaque
τ pour que α → ∞ .

54
Master 1 INST et ESEM Traitement avancé du signal

3.5.1 Ergodicité de la distribution du premier ordre


Prenant X(t) comme un processus aléatoire stationnaire. On définie un processus
aléatoire Y(t) tel que
1, X(t) ≤ xt
Y (t ) =  (4.65)
0, X(t) > xt

On dit que le processus aléatoire X(t) est ergodique dans la distribution du premier ordre si
1 T
FX ( x; t ) = lim ∫ y (t )dt (4.66)
T →∞ 2T −T

Où FX ( x; t ) = P[ X (t ) ≤ x(t )] et y(t) la fonction d’échantillon du processus Y(t). la condition


nécessaire et suffisant pour q’un processus est ergodique dans la distribution du premier ordre
est que X (t + τ ) et X(t) deviennent statistiquement indépendants pour τ → ∞ .

4.5.1 Ergodicté de la densité spectrale de puissance


Un processus stationnaire au sens large X(t) est ergodique dans la densité spectrale de
puissance si pour quelle fonction d’échantillon x(t)
2
1 T
S xx ( f ) = lim ∫ x(t )e − j 2πft dt (4.67)
T →∞ 2T −T

A l’exception d’un ensemble de fonctions d’échantillons qui présente une probabilité nulle.

4. 6 Densité spectrale de puissance


Etant donné un signal déterministe s(t), sa transformée de Fourier (T.F) est donnée par
+∞
S ( f ) = ∫ s (t )e − j 2πft dt (4.68)
−∞

Qui existe si l’intégrale converge. Des fois la fonction S(f) est appelée le spectre de s(t).
Allant du domaine temporel s(t) vers le domaine fréquentiel S(f) aucune information perdue
autour du signal. C’est-à-dire S(f) forme une description complète de s(t) et vice-versa. D’où
le signal s(t) peut être obtenu à partir de S(f) en prenant simplement la transformé de Fourier
inverse qui est
+∞
s (t ) = ∫ S ( f )e j 2πft df (4.69)
−∞

Concernant les processus aléatoires, l’ensemble est supposé qu’il existe en tout le temps. En
général, les fonctions d’échantillons ne sont pas complètement intégrables. Cependant, nous
sommes encore intéressés par la notion du spectre, nous poursuivons par la même manière à

55
Master 1 INST et ESEM Traitement avancé du signal

celle des signaux déterministes avec une énergie finie. On définie xT (t) comme une fonction
d’échantillon x(t) tronquée entre –T et T du processus aléatoire X(t) qui est
 x(t ), -T ≤ t ≤ T
xT (t ) =  (4.70)
0, ailleurs
La transformée de Fourier tronquée du processus X(t) est
T +∞
X T ( f ) = ∫ xT (t )e − j 2πft dt = ∫ x(t )e − j 2πft dt (4.71)
−T −∞

La puissance moyenne de xT(t) est


1 T 2
Pmoy = ∫ xT (t )dt (4.72)
2T −T
On utilise le théorème de Parseval qui est
+∞ +∞

∫ x (t )dt = ∫ X T ( f ) df
2 2
(4.73)
−∞ −∞

La puissance moyenne de xT(t) devient


2
∞ XT ( f )
PT = ∫ df (4.74)
−∞ 2T
2
Où le terme X T ( f ) / 2T est la puissance spectrale de puissance de xT(t). La moyenne totale

de PT est donnée par


∞ XT ( f ) 2 
E [PT ] = ∫ E   df (4.75)
−∞  2T 

La densité spectrale de puissance du processus aléatoire X(t) est définie par


 XT ( f ) 2 
S xx ( f ) = lim E   (4.76)
T →∞  2T 

Si X(t) est stationnaire au sens large, la densité spectrale de puissance Sxx(f) peut être
exprimée comme la transformée de Fourier de la fonction d’autocorrélation Rxx( τ ) qui est

S xx ( f ) = ∫ R xx (τ )e − j 2πfτ dτ (4.77)
−∞

La relation inverse correspondante utilisant la transformée de Fourier inverse est



Rxx (τ ) = ∫ S xx ( f )e j 2πfτ df (4.78)
−∞

56
Master 1 INST et ESEM Traitement avancé du signal

Les relations (77) et (78) sont souvent appelées comme les relations de Wiener-Khinchin. A
partir de la définition, on peut noter que la densité spectrale de puissance est réelle, positive et
une fonction paire de f. L’autocorrélation est aussi une fonction paire de τ .
En prenant X(t) et Y(t) comme deux processus jointement stationnaires au sens large. Ses
densités inter-spectrales sont définies par

S xy ( f ) = ∫ R xy (τ )e − j 2πfτ dτ (4.79)
−∞


S yx ( f ) = ∫ R yx (τ )e − j 2πfτ dτ (4.80)
−∞

A partir de R yx (τ ) = R xy* (τ ) , on peut écrire S yx ( f ) = S xy* ( f ) .

4.7 Systèmes linéaire invariant dans le temps


Pour un système linéaire caractérisé par la réponse impulsionnelle h(t) ou sa
transformée de Fourier H(f), nous avons les relations suivantes :
+∞
H ( f ) = ∫ h(t )e − j 2πft dt (4.81)
−∞

et
+∞
h(t ) = ∫ H ( f )e j 2πft df (4.82)
−∞

Si x(t) est signal d’entrée déterministe, on a


+∞
y (t ) = x(t ) * h(t ) = ∫ x(t − τ )h(τ )dτ (4.83)
−∞

et
Y ( f ) = X ( f )H ( f ) (4.84)
Pour un système causal (h(t)=0 pour t>0)
y (t ) = x(t ) * h(t ) = h(t ) * x(t )
∞ t (4.85)
= ∫ x(t − τ )h(τ )dτ = ∫ x(τ )h(t − τ )dτ
0 −∞

Dans le cas des signaux stochastiques X(t), le signal de sortie devient


+∞ +∞
Y (t ) = ∫ X (t − α )h(α )dα = ∫ X (α )h(t − α )dα (4.86)
−∞ −∞

Moyenne de Y(t) :
+∞ +∞
E [Y (t )] = ∫ E [X (t − α )]h(α )dα = ∫ m x (t − α )h(α )dα (4.87)
−∞ −∞

57
Master 1 INST et ESEM Traitement avancé du signal

Si X(t) est stationnaire au sens large, m x (t − α ) = m(t ) = cons tan t . D’où


+∞
m y (t ) = m x ∫ h(α )dα = m x H (0) (4.88)
−∞

Moyenne carrée de Y(t) :

[ ]  +∞ +∞ 
E Y 2 (t ) = E  ∫ ∫ X (t − t1 ) X (t − t 2 )h(t1 )h(t 2 )dt1 dt 2  (4.89)
 −∞ 0 
En simplifiant (89), la valeur moyenne quadratique de Y(t) devient

[ ]
+∞ +∞
E Y 2 (t ) = ∫ ∫ R xx (t1 , t 2 )h(t − t1 )h(t − t 2 )dt1 dt 2 (4.90)
−∞ 0

En supposant que X(t) est stationnaire au sens large et faisant un changement de variable
α = t − t1 et β = t − t 2 le résultat ci-dessus est réduit par

[ ]
+∞ +∞
E Y 2 (t ) = ∫ ∫ R xx (α − β )h(α )h( β )dαdβ (4.91)
−∞ 0

Intercorrélation entre l’entrée X(t) et la sortie Y(t) :


On suppose que le processus aléatoire X(t) est stationnaire au sens large, la fonction
d’intercorrélation entre l’entrée et la sortie est
[
R yx (t + τ , t ) = E Y (t + τ ) X * (t ) ] (4.92)

Utilisant les relations ci-dessus et on fait un changement de variable, on obtient


+∞
R yx (t + τ , t ) = ∫ R xx (τ − α )h(α )dα = R xx (τ ) * h(τ ) (4.93)
−∞

Aussi, il a été montré que R xy (τ ) = R xx (τ ) * h(−τ ) . Si les deux processus X(t) et Y(t) sont

jointement stationnaires au sens large, ses densités inter-spectrales de puissance deviennent la


transformée de Fourier de ses fonctions d’intercorrélations. Alors, nous obtenons
S yx ( f ) = S xx ( f ) * H ( f ) (4.94)

et
S xy ( f ) = S xx ( f ) * H * ( f ) (4.95)

Fonction d’autocorrélation et le spectre de la sortie Y(t) :


La fonction d’autocorrélation est
R yy (t + τ , t ) = E[Y (t + τ )Y (t )]
+∞ +∞
 (4.96)
= E  ∫ X (t + τ − α )h(α )dα ∫ X (t − β )h( β )dβ 
 −∞ −∞ 

58
Master 1 INST et ESEM Traitement avancé du signal

Prenant un changement de variable α = − β , on obtient

R yy (τ ) = R yx (τ ) * h(−τ ) = R xy (τ ) * h(τ ) = R xx (τ ) * h(τ ) * h(−τ ) (4.97)

Maintenant si on applique la transformée de Fourier de l’équation précédente, on trouve

S yy ( f ) = S yx ( f ) H * ( f ) = S xy ( f ) H ( f ) = S xx ( f ) H ( f ) H * ( f )
(4.98)
= S xx ( f ) H ( f )
2

59
Master 1 INST et ESEM Traitement avancé du signal

4. 8 Exercices de TD :
Ex #1 :
En considérant la variable aléatoire X(t) définie par X (t ) = A cos(ω 0 t + Θ)

Où A et ω 0 sont des constants et Θ est une variable aléatoire de densité de probabilité

4 π
 , θ ≤
f Θ (θ ) = π 8
0, ailleurs

a) Trouver la moyenne, E[X(t)] et la fonction d’autocorrélation, Rxx(t1,t2)


b) Ce processus est-il stationnaire ?

Ex #2 :
Prenant le processus X (t ) = A cos(ω 0 t + Θ) avec A et ω 0 sont des constants et Θ est une

variable aléatoire uniformément distribuée sur [0,2π ] . Si le processus aléatoire Y(t)=X2(t).


a) Trouver la fonction d’autocorrélation, Ryy(t1,t2)
b) Est-il stationnaire ?

Ex #3 :
On considère le processus aléatoire définie par X (t ) = Ae j (ωt + Θ ) où A est une variable
aléatoire distribuée par
 a −a2
2

 e 2σ , a ≥ 0
f A ( a ) = σ 2 σ 2 est constant et Θ est une variable aléatoire uniformément
0,
 ailleurs
distribuée sur [0,2π ] . A et Θ sont statistiquement indépendants.
a) Déterminer la fonction moyenne, E[X(t)]
b) Déterminer la fonction d’autocorrélation, Rxx(t1,t2)

Ex #4 :
Prenant X(t) et Y(t) deux processus stochastiques indépendants avec
 R xx (τ ) = 2e −2 τ cos ωτ
 −3 τ
 R yy (τ ) = 9 + e

On définie Z(t)=A X(t)Y(t) avec A est une v.a de moyenne 2 et de variance 9.


a) Déterminer la fonction d’autocorrélation, Rzz( τ )
b) Déterminer la moyenne, E[Z(t)] et la variance, σ z2 = E[ Z 2 (t )] − E[ Z (t )]2

60
Master 1 INST et ESEM Traitement avancé du signal

Ex #5 :
En considérant le processus aléatoire X (t ) = A cos(ω 0 t + Θ) . A et fc sont constants et Θ est

 π π
une variable aléatoire uniformément distribuée sur −
 8 8 
a) Est-il ergodique dans la moyenne
b) Est-il ergodique dans l’autocorrélation

Ex #6 :
Pour un processus stochastique X (t ) = A cos(ω 0 t + Θ) avec f Θ (θ ) = 1 / 2π , 0 ≤ θ ≤ 2π

A et ω 0 sont des constants.

a) Déterminer la densité spectrale de puissance

Ex #7 :
Un processus aléatoire (bruit blanc) avec une fonction d’autocorrélation R xx (τ ) = ( N 0 / 2)δ (τ )
est appliqué à un filtre de réponse impulsionnelle
αe −αt , t ≥ 0 et α > 0
h(t ) = 
0, t <0

a) Déterminer la densité spectrale de puissance S yy ( f ) du processus de sortie utilisant

b) Déterminer ainsi la fonction d’autocorrélation R yy (τ ) .

Ex #8 :
En considérant le processus Y(t)=X(t-T), où X(t) est un processus réel stationnaire au sens
large avec la fonction d’autocorrélation Rxx( τ ) et la densité spectrale de puissance Sxx(f). T est
constant.
a) Exprimer Sxy(f) du processus Y(t) en fonction de Sxx(f).

Ex #9 :
Prenant un processus aléatoire N(t) avec une densité spectrale de puissance
S nn ( f ) = rect ( f ) est appliqué au système linéaire avec décalage. y (t ) = N (t ) + N (t − 1)
a) Déterminer h(t) et H(f) de la réponse impulsionnelle
b) Déterminer et tracer la densité spectrale de puissance Syy(f)

61
Master 1 INST et ESEM Traitement avancé du signal

Chapitre 5
Transformée de Fourier discrète (TFD)

5. 1 Introduction
On a déjà vu dans le chapitre précédent la représentation des séquences en terme de la
transformée en Z. Dans le cas particulier où la séquence est finie, il est possible de développer
une représentation de Fourier alternative comme par la TFD (Transformée de Fourier
Discrète). Cette représentation est basée sur la relation entre les séquences finies et les
séquences périodiques.

5. 2 La représentation des séquences périodiques (la TFD)


On considère une séquence périodique ~
x (n) de période N. c.à.d ~
x (n + kN ) = ~
x (n) pour
k entier. Cette séquence ne peut être représentée par sa T.Z puisque il n’existe pas une valeur
de z pour laquelle la suite converge. Cependant, il est possible de représenter ~x (n) en termes
de séries de Fourier (une somme de sinus et de cosinus ou exponentielle avec des fréquences
qui sont des entiers multiples de la fréquence fondamentale 2π / N ). Cependant, il y’a
seulement N exponentielles complexes distinctes. Ceci est dû à

j nk
ek ( n) = e N
(5.1)

Qui est périodique en k avec une période N. e0 (n) = e N (n) , e1 (n) = e N +1 (n) , …
Donc, la représentation en série de Fourier nécessite N termes
N −1 2π
1 ~ j nk
~
x (n) =
N
∑ X (k )e N
k =0
(5.2)

~
Pour plus de commodité, 1/N est inclus dans (2). Afin d’obtenir les coefficients X (k ) à partir
de la séquence périodique ~
x (n) , on utilise le fait que

1 N −1 j nr 1 si r = mN
∑e N
= (5.3)
N n =0 0 autrement

62
Master 1 INST et ESEM Traitement avancé du signal


−j nr
N
Donc, en multipliant (2) par e et en sommant de 0 à N-1, on trouve
N −1 2π N −1 N −1 2π
j nr 1 ~ j (k −r ) n

n =0
~
x (n)e N =
N
∑∑ X (k )e N
k = 0 k =0

En changeant l’ordre de somation, on peut écrire


2π 2π
N −1 −j nr N −1
~ 1 N −1 j (k −r ) n 
∑ ~
x ( n )e N
= ∑ X (k )  ∑e N

n =0 k =0 N n=0 

N N −1
q =1

Utilisant (3) et le résultat de la série géométrique i.e., ∑ q = 1 − q N n
pour k=r,
n =0  1− q q≠1

N −1 2π
−j nr ~
∑ ~x (n)e N = X (r )
n =0

~
Alors, les coefficients X (k ) dans (2) sont obtenus par
N −1 2π
~ −j nk
X (k ) = ∑ ~ x (n)e N (5.4)
n =0

~ ~ ~
On remarque que X (k ) de (4.4) est périodique de période N, i.e., X ( 0) = X ( N ) ,
~ ~
X (1) = X ( N + 1) , …. (2) est (4.4) forment une paire de transformée et sont appelées les séries
de Fourier discrète (SFD). Il est plus commode d’utiliser la relation suivante :

−j
WN = e N

Donc
N −1
~
X (k ) = ∑ ~ x (n)W Nkn (5.5)
n=0

N −1
1 ~
~
x ( n) =
N
∑ X (k )W
k =0
− kn
N (5.6)

~ ~
Où ~
x (n) et X (k ) sont des séquences périodiques. La séquence périodique X (k ) a une
interprétation adéquate comme les échantillons du cercle unitaire espacés également en angle
d’une T.Z d’une période de ~
x ( n) .
Pour obtenir cette relation en prenant
~x ( n) 0 ≤ n ≤ N −1
x ( n) = 
0 ailleurs
Et la T.Z

63
Master 1 INST et ESEM Traitement avancé du signal

~
x ( n)

n
x(n)

+∞
X ( z) = ∑ x ( n) z
n = −∞
−n

Puisque x(n)=0 si n>N-1 et n<0 alors


N −1
X ( z ) = ∑ x( n) z − n (5.7)
n =0

En comparant (4.5) et (4.7), on a


~
X (k ) = X ( z ) z =e j 2Nπ k =W − k (5.8)
N

Ceci correspond à un échantillonnage de la T.Z en N points espacés en angle autour du cercle


unitaire avec le premier échantillon z=1.
Im

Plan Z
N

Re

Exemple :
Soit la séquence périodique, ~
x (n) suivante : ~
x ( n)
La T.Z évaluée sur le cercle unitaire d’une période de
~
x (n) est
4
1 − z −5
X (e jω ) = ∑ z − n =
n =0 1 − z −1 0 1 2 3 4 5 6 7 8 9 n
sin(5ω / 2)
= e − j 2ω
sin(ω / 2)

64
Master 1 INST et ESEM Traitement avancé du signal


j k ~
En remplaçant z = e N
, les coefficients X (k ) sont
π
 j π2 k
−j k
π
−j k 
2π e e 2
− e 2 
− j 5k
  4πk
~
X (k ) =
1 − z −5
=
1− e 10
=   = e − j 10 sin(πk / 2)
1 − z −1 j

k −j

k π
−j k j k
π π
−j k  sin(πk / 10)
z =e N
1− e 10
e 10  10
−e 10 
e 
 
Or, on utilise la formule (4.5) pour confirmer le résultat précédent
2π 4πk
~ 4 4 −j nk −j sin(πk / 2)
X (k ) = ∑ W10− nk = ∑ e 10 = e 10
n=0 n =0 sin(πk / 10)

5. 3. Propriétés des séries de Fourier


- Linéarité :
Si 2 séquences périodiques ~
x1 (n) et ~
x 2 (n) de période N alors si
~
x3 (n) = a~
x1 (n) + b~
x 2 ( n)

Alors les coefficients de la SFD de ~


x3 (n) sont données par
~ ~ ~
X 3 (k ) = aX 1 (k ) + bX 2 (k )

- Séquence retardée:
~
Si une séquence périodique ~
x (n) à des coefficients de Fourier X (k ) , alors la séquence
~ ~
x (n + m) a les coefficients W N− km X (k )

- Convolution périodique :
~
x1 (n) et ~
x 2 (n) sont deux séquence périodiques de période N leurs coefficients de Fourier
~ ~
respectives sont X 1 (k ) et X 2 (k ) . On veut déterminer la séquence ~
x3 (n) dont la SFD est
~ ~
X 1 (k ) X 2 (k )
N −1
~
X 1 (k ) = ∑ ~ x1 (m)W N− mk
m =0

N −1
~
X 2 (k ) = ∑ ~ x 2 (r )W N− rk
r =0

Donc
N −1 N −1
~ ~
X 1 (k ) X 2 (k ) = ∑∑ ~ x1 (m) ~
x 2 (r )W N− k ( r + m )
m =0 r = 0

Alors

65
Master 1 INST et ESEM Traitement avancé du signal

N −1
1 ~ ~
~
x 3 ( n) =
N
∑W
k =0
− nk
N X 1 (k ) X 2 (k )

N −1 N −1 N −1
1 
= ∑~ x1 (m)∑ ~ x 2 (r )  ∑W − k ( n−m −r )
N 
m =0 r =0 N k =0 
Si on considère ~
x3 (n) pour 0 ≤ n ≤ N-1, alors

1 N −1
1 si r = n - m + lN
∑W −k ( n − m− r )
N =
N k =0 0 ailleurs
Donc
N −1
x 3 ( n) = ∑ ~
~ x1 (m) ~
x 2 ( n − m)
m=0

Table 5. 1 Résumé des propriétés de la représentation en SFD des séquences périodiques


Séquence périodique (période N) Coefficients des SFD
~
x ( n) ~
X (k ) périodique de période N
~
y ( n) ~
Y (k ) périodique de période N
a~
x (n) + b~
y ( n) ~ ~
aX ( k ) + bY ( k )
~
x ( n + m) ~
W N− km X (k )
~
W Nln ~
x ( n) X (k + l )
N −1 ~ ~
X (k )Y (k )
∑ ~x (m)~y (n − m) (convolution périodique)
m=0

~
x (n) ~
y (n) N −1
1 ~ ~
N
∑ X (l )Y (k − l )
l =0

~ ~
x * ( n) X * (−k )
~ ~
x * ( − n) X * (k )

5. 4. Echantillonnage de la T.Z
~
On a déjà vu que les valeurs de X (k ) dans la représentation en SFD d’une séquence
périodique sont identiques aux échantillons de la T.Z d’une période de ~
x (n) à des points
égalent espacés sur le cercle unitaire.

66
Master 1 INST et ESEM Traitement avancé du signal

On va considérer la relation entre la séquence apériodique avec sa T.Z X(z) et la séquence


périodique pour laquelle les coefficients de la SFD correspondent aux échantillons de X(z)
égalent espacés en angle sur le cercle unitaire
+∞
X ( z) = ∑ x ( n) z
n = −∞
−n
(5.9)

A une région de convergence qui inclut le cercle unitaire (une condition toujours vérifiée pour
les séquences finies). Si on évalue la T.Z en N points égalent espacés en angle sur le cercle
unitaire, on obtient une séquence périodique
+∞
~
X (k ) = X ( z ) z =W − k =
N
∑ x(n)W
n = −∞
kn
N (5.10)


−j
Où W N = e N

On sait que
N −1
1 ~
~
x ( n) =
N
∑ X (k )W
k =0
− kn
N (5.11)

~
On va remplacer les valeurs de X (k ) de (10) dans (11)
N −1 +∞
1
~
x (n) =
N
∑ ∑ ~x (m)W
k = 0 m = −∞
WN− kn
km
N

En changeant l’ordre de sommation


+∞ N −1
1 
~
x (n) = ∑
m = −∞
~
x ( m) 
N
∑W
k =0
−k (n − m)
N 

En utilisant (3), il s’en suit
1 N −1
1 m = n + rN
∑W − k (n − m)
N =
N k =0 0 autrement
Donc
+∞
x ( n) = ∑ x(n + rN )
r = −∞
(5.12)

Si x(n) = ~
x (n) pour 0 ≤ n ≤ N − 1
N −1
X ( z ) = ∑ x ( n) z − n (5.13)
n =0

En remplaçant (11) dans (13), on obtient


N −1 N −1
1 ~
X ( z) = ∑ ∑ X (k )W − kn
N z −n
n=0 N k =0

67
Master 1 INST et ESEM Traitement avancé du signal

En changeant l’ordre de sommation, on trouve par l’utilisation du résultat de la série


géométrique que

∑ X (k ) ∑ (W )
N −1
1 ~  N −1 −k −1 
X ( z) = N z −1 
N k =0 n =0 
~
1 N −1
~ 1− z −N 1 − z −N N −1
X (k )
X ( z) =
N

k =0
X (k )
1 − W N− k z −1
=
N
∑ − k −1
k =0 1 − W N z
(5.14)

Cette équation exprime X(z), la T.Z d’une séquence finie de durée N en fonction de
N « Echantillons de fréquence » de X(z) sur le cercle unitaire.
En remplaçant z = e jω , on peut montrer que (14)
N −1
~  2π 
X (e jω ) = ∑ X (k )Φ ω − k (5.15)
k =0  N 

N −1  1
sin(ωN / 2) − jω jπk  1− 
Φ(ω ) = e 2
e  N
(5.16)
N sin(ω / 2)
La fonction sin(ωN / 2) / N sin(ω / 2) est tracée sur la Figure suivante pour N=5.

 2π  0 k = 1, 2, ..., N - 1
Φ k = 
 N  1 k =0
~
X (e jω ) 2π = X (k ) , k=0, 1, …
ω=
N
k sin(ωN / 2)
N sin(ω / 2)

N=5

π 2π
2 π /N

5. 5. Représentation de Fourier des séquences finies :


On peut représenter des séquences finies de durée N par une séquence périodique de
période N et dont une période est identique à la séquence finie. Dans le sens où la séquence
périodique à une représentation unique en SFD, alors la séquence finie d’origine aussi puisque
on peut calculer une seule période de la séquence périodique de SFD.
On peut aussi représenter une séquence finie par les échantillons de sa transformée en Z.

68
Master 1 INST et ESEM Traitement avancé du signal

+∞
~
x ( n) = ∑ x(n + rN )
r = −∞
(5.17.a)

~
x (n) = x(n mod ulo N ) (5.17.b)
On utilise la notation suivante
x (n) = ( x(n )) N
~ (5.18.a)

~x (n) 0 ≤ n ≤ N -1
x ( n) = 
0 ailleurs
Par commodité, on considère la fonction suivante
1 si 0 ≤ n ≤ N - 1
R N ( n) = 
0 ailleurs
Donc
~
x (n) = ~
x ( n ) R N ( n) (5.18.b)
~
On a déjà vu que les coefficients des SFD X (k ) de la séquence périodique ~
x (n) sont
périodique de période N. pour maintenir un dualité entre le temps et la fréquence on va choisir
les coefficients de Fourier qu’on associe à la séquence finie d’être une séquence finie
correspondant à une seule période.
X (k ) = ( X (k ) )N
~
(5.19.a)
~
X ( k ) = X (k ) R N (k ) (5.19.b)
On a
N −1
~
X (k ) = ∑ ~ x (n)W Nkn (5.20.a)
n=0

N −1
1 ~
~
x ( n) =
N
∑ X (k )W
k =0
− kn
N (5.20.b)

Puisque les sommes dans (20.a) et (20.b) prennent en compte l’intervalle [0, N-1], il s’en suit
que

La TFD (transformée de Fourier discrète


 N −1
∑ x(n)W N 0 ≤ k ≤ N -1
kn
~
X (k ) =  n =0 (5.21.a)
0
 ailleurs

La TFDI (transformée de Fourier discrète inverse)

69
Master 1 INST et ESEM Traitement avancé du signal

N −1
1
~ 
x (n) =  N
∑ X (k )W
k =0
− kn
N 0 ≤ n ≤ N -1
(5.21.b)
0
 ailleurs

−j
Où W N = e N
. (21) représente la paire de la TFD
En forme matricielle, (21.a) est donnée par
~
 X ( 0)  ~

  1 x ( 0) 
~
 X (1)  
1 1 ... 1
 ~ 
N -1  x (1) 
 ~  1 WN WN . . . WN 
2

 X ( 2)    ~x ( 2) 
2 4 2(N -1)   2π
 . = 1 W W . . . W  . −j
 , WN = e N
N N N
  . 
 .  
. . .
 . 
   . . . .  
 .   . 
N -1 2(N -1) (N -1) 2  
1 WN WN . . . WN
 X ( N − 1)    ~
~ x ( N − 1) 
 

5. 6. Transformée de Fourier rapide (FFT)


L’invention de l’algorithme FFT (Fast Fourier Transform) par les professeurs Cooley
et Tukey en 1965 était une avancée majeure dans le domaine du traitement numérique des
signaux. Avant de cette date, l’utilisation pratique de la TFD était limitée aux problèmes dans
lequel le nombre de données à traiter est relativement petit. La TFD de l’équation (21)
nécessite N multiplications pour calculer un coefficient de Fourier, le calcul de la TFD serait
N2 multiplications complexes. C’est donc une opération lourde en calcul. Cooley et Tukey ont
remarqué que si N est une puissance de 2, il est possible de faire un calcul beaucoup plus vite.
En effet, en utilisant les symétries pair et impair, il est possible de réduire le nombre
d’opérations à N log 2 N au lieu de N2. Pour N=1024, le temps de calcul de la FFT devient 100
fois plus court que le temps de calcul écoulé par la TFD. L’algorithme est simple et très
élégant si N = 2n, il existe d’autres méthodes équivalentes mais nettement un peu complexes.
Comme la TFDI est équivalente à la TFD, à un signe et un facteur 1/N près, il est possible de
générer la transformation inverse de la même manière pour la version rapide. Attention, le
nom FFT ne te trompe pas, les algorithmes FFT sont seulement des procédures équivalentes
de calcul de la TFD, ils ne sont pas de nouvelles transformations. Actuellement, la FFT est
applicable en toute confiance dans la plus part des traitements numériques des signaux.

70
Master 1 INST et ESEM Traitement avancé du signal

5. 6. 1. Algorithme de décomposition de Cooley-Tukey


L’algorithme de Cooley-Tukey pour le calcul de la TFD est basé sur la factorisation de
N, la taille de la TFD comme le produit des nombres inférieurs à N.
Posant N=PQ où les deux facteurs sont supérieurs à 1.
 N −1 ~
∑ x (n)W N
− nk
~ 0 ≤ k ≤ N -1
X (k ) =  n =0 (5.22)
0
 ailleurs

j
Avec W N = e N

En commençants par la division du domaine des valeurs entière de 0 à N-1 par deux manières
différentes. Pour l’indice de temps n, la division est pour Q intervalles de dimension P. Pour
l’indice de fréquence, k, la division est pour P intervalles de dimension Q. On peut alors
formuler les variables n et k sous la forme suivante :
n = Pq + p, 0 ≤ q ≤ Q - 1, 0 ≤ p ≤ P - 1
 (5.23)
 k = Qs + r , 0 ≤ s ≤ P - 1, 0 ≤ r ≤ Q - 1
Le produit nk apparaît dans l’exposant de WN dont la formule de TFD peut être écrite en
fonction de p, q, r et s comme suit
nk = (Qs + r )( Pq + p ) = Nsq + Qsp + Pr q + rp (5.24)
Pour cela
WN− nk = WN− NsqWN− QspWN− Pr qWN− rp (5.25)

Nous avons que, WNN = 1 , WNQ = WP et WNP = WQ , alors

WN− nk = WP− spWQ− rqWN− rp (5.26)

En remplaçant (4.26) dans (4.22), (4.22) devient


P −1 Q −1
~
X (Qs + r ) = ∑∑ ~ x ( Pq + p )WP− spWQ− rqW N− rp
p =0 q =0
(5.27)
P −1  Q −1 ~  − sp
= ∑W − rp
N ∑ x ( Pq + p )WQ WP
− rq

p =0  q=0 
On définie les séquences suivantes P de dimension Q
x p (q ) = x( Pq + p ) , 0 ≤ q ≤ Q − 1 , 0 ≤ p ≤ P − 1 (5.28)

Chaque x p (q ) est appelée une séquence décimée (decimated sequence), car elle est obtenue

en choisissant ‘un’ parmi P éléments de x(n). Pour cela, les éléments sélectionnés sont
uniformément espacés. La TFD de ~
x (q ) est

71
Master 1 INST et ESEM Traitement avancé du signal

Q −1
~
X p (r ) = ∑ ~ x p (q )WQ−rq (5.29)
q =0

La substitution de (4.29) dans (27) donne


P −1
~ ~
X p (Qs + r ) = ∑ W N−rp X p (r )WP− sp (5.30)
p =0

On définit pour chaque 0 ≤ r ≤ Q − 1 , la séquence de dimension P


~ ~
y r ( p ) = W N− rp X p (r ) , 0 ≤ p ≤ P − 1 (5.31)

En remplaçant (4.31) dans (30), on obtient


P −1
~
X p (Qs + r ) = ∑ ~ y r ( p )WP− sp (5.32)
p =0

L’équation (4.32) avec les définitions auxiliaires données par (5.28), (5.29) et (5.31)
représente l’algorithme de décomposition de Cooley-Tukey de la TFD. Cet algorithme peut
être implémenté facilement par la procédure suivante :
1. Former les séquences décimées x p (q ) de dimension P et calculer la TFD associée au

point- Q pour chacune


2. Multiplier chaque sortie de chaque TFD par le nombre complexe correspondant W N− rp ,
ces nombres sont appelés les facteurs tournés (twiddle factors).
3. Pour chaque r, déterminer la TFD associée au point P de la séquence ~
y r ( p)

A titre d’exemple, la figure suivante représente la décomposition de Cooley-Tukey pour N=6,


P=3 et Q=2. Les trois séquences décimées sont {x(0), x(3)} , {x(1), x(4)} et {x(2), x(5)}.
Chacune de ces séquences est transformée utilisant l’opération TFD2. Les sorties des trois
TFDs sont multipliées par les six facteurs (twiddle factors). Après, l’ordre des nombres est
changé pour obtenir deux séquences des trois nombres chacune.
{y 0 (0), y 0 (1), y 0 (2)}et {y1 (0), y1 (1), y1 (2)} . Finalement, chacune de ces deux séquences est
transformée utilisant l’opération TFD3 pour trouver la TFD en question de la séquence
primaire du signal à traiter x(n). Figure. 2 montre l’opération de décomposition de la TFD de
Cooley et Tukey.

72
Master 1 INST et ESEM Traitement avancé du signal

W60 y0(0)
X(0)
x(0) TFD3
W60 y0 (1) TFD3 X(2)
(p=0)
(r=0)
x(3) X(4)
y0 (2)
W60
x(1) TFD3
(p=0) W6−1
x(4)
y1(0)
X(1)
W60 y1(1)
x(2) TFD3 TFD3 X(3)
−2 (r=0)
(p=0) W 6 y1(2)
x(5) X(5)

Figure. 5. 2 Algorithme de la TFD de Cooley-Tukey illustré pour P=3 et Q=2

73
Master 1 INST et ESEM Traitement avancé du signal

5. 7. Exercices de TD

Ex#1 :
Soit ~
x (n) un signal périodique de période N.
~
a- Montrer que la TFD de ce signal retardé de m est donnée par W N− nm X (k )
b- Existe-t-il une ambiguïté selon les valeurs de m ?

Ex#2 :
Soit la séquence périodique, ~
x (n) suivante : ~
x ( n)
a- Déterminer la T.Z de ~
x ( n)
~
b- Déterminer X (k ) utilisant la T.Z et
la définition de la TFD
0 1 2 3 4 5 6 7 8 9 n
Ex#3 :
Soit ~
x (n) = a n rect N (n) un signal réel à durée limitée avec a<1 et réel.
a- Déterminer sa TFD et les spectres discrets d’amplitude et de phase
Avec a=0.75 et N=8

Ex#4 :
Soit ~
x (n) un signal à durée limitée à N=8 dont la TFD est de la forme suivante :

~
x ( n)

0 1 2 3 4 5 6 7 8 9 n

On forme un nouveau signal ~


y (n) de durée limitée à N=16.

~  x ( n / 2) pour n pair
y ( n) = 
0 pour n impair
~
a- Esquisser la forme de Y (k ) et justifier votre réponse

74
Master 1 INST et ESEM Traitement avancé du signal

Bibliographies

1. M. Barkat, “Signal Detection and Estimation“, Second Edition, Artech House, Boston,
MA, SA, 2005

2. A. V. Oppenheim and R. W. Schafer, ‘Digital Signal Processing’, Prentice-Hall


International Editions, 1975

3. M. Kunt, ‘Traitement numérique des signaux’, Deuxième édition Presses


polytechniques Romandes, CH-1015, Lausanne, Suisse, 1989

4. B. C. Kuo, ‘Digital Control Systems‘, Second Edition, Saundders College Publishing,


Harcourt Brace Jovanovich College Publisher, 1992

5. B. Porat, ‘A course in Digital signal Processing’, John Wiley & Sons, INC, 1997

6. Z transform: https://en.wikipedia.org/wiki/Z-transform

7. Matlab command: https://www.mathworks.com/products/matlab.html.

8. Frédéric De coulon, ‘Théorie et traitement des signaux’, Dunod 1985, Paris, France

75