Вы находитесь на странице: 1из 56

Support de cours de transmissions numériques

Enseignant : Hatem Boujemâa

SUPCOM, Septembre 2007


Chapitre 1

Introduction

1.1 Intérêts de la transmission numérique

1.1.1 Définition

Les transmissions numériques consistent à représenter l’information, qu’on désire acheminer de


l’émetteur au récepteur, sous forme d’une suite de symboles appartenant à un alphabet fini. On distingue
deux catégories de signaux numériques :
- Les signaux qui proviennent de la numérisation d’un signal analogique (signal à temps continu et à va-
leurs continues). Cette numérisation est obtenue en deux étapes : l’échantillonnage puis la quantification.
Exemple : Numérisation de la parole pour les communications téléphoniques
Le signal de la parole dont le spectre est compris entre 300 Hz et fmax =3400 Hz est échantillonné à une
fréquence égale à 8 kHz qui vérifie bien le théorème de Shannon : fe  2fmax . Les échantillons ainsi
obtenus sont ensuite quantifiés sur 8 bits ce qui nous donne un débit D = 64 kbits /s.
- Les signaux qui sont numériques de nature.
Exemple : Dans un message écrit, les informations sont représentées par des suites de signes : lettres,
chiffres, ponctuations ... L’ensemble de ces signes constitue l’alphabet de la transmission. Chaque signe
peut être codé en binaire. Le code ASCII est souvent utilisé pour faire l’association entre ces signes et la
suite d’éléments binaires.

1.1.2 Intérêts

- Meilleure qualité de transmission : une information décomposée en éléments simples appartenant à un


alphabet fini peut être transmise à travers un milieu perturbé et régénérée sous sa forme originale alors
qu’une information analogique ne sera jamais retrouvée intégralement.
2 Introduction

- Le théorème de Shannon montre qu’il y a équivalence du point de vue information entre les signaux
échantillonnés et analogiques. Le signal analogique est donc redondant.
- Le codage de source ou encore la compression : Il consiste à exploiter les statistiques de la source afin
de la comprimer. Le codeur optimal est celui de Huffman. Le codage de source sera traité dans le module
théorie de l’information et codage correcteur d’erreurs.
- Le codage canal ou encore le codage correcteur et/ou détecteur d’erreurs : Il consiste à rajouter de la
redondance permettant la détection et la correction des éventuelles erreurs de transmission. Le codage
canal sera traité dans le module théorie de l’information et codage correcteur d’erreurs.
- Le cryptage : Il consiste à coder l’information par une clé secrète de sorte qu’elle ne soit déchiffrable
que par les détenteurs de la clé.
- Traitement équivalent de toute nature d’information.
- Facilité de stockage et de traitement sur ordinateur.

1.1.3 Exemples de systèmes de transmission numérique

Les systèmes de transmission numérique les plus utilisés sont : GSM (Global System for Mobile
communications), HSCSD (High Speed Circuit Switched Data), GPRS (General Packet Radio Service),
EDGE (Enhanced Data Rates for GSM Evolution), UMTS (Universal Mobile Telecommunication Sys-
tem), DECT (Digital Enhanced Cordless telephone), DAB (Digital Audio Broadcast), DVB (Digital Vi-
deo Broadcast), DAB (Digital Audio Broadcast), les systèmes XDSL (Digital Subscriber Lines), les
réseaux informatiques : LAN (Local Area Network), WPAN (Wireless Personal Area Network) : Blue-
tooth (IEEE 802.15.1), WLAN (Wireless LAN) : WIFI (WIreless FIdelity), HIPERLAN2 (HIgh PER-
formance radio LAN 2.0), MAN (Metropoiltan Area Network) et WAN (Wide Area Network).

1.2 Numérisation des signaux analogiques

La numérisation s’effectue en deux étapes à savoir l’échantillonnage puis la quantification.

1.2.1 L’échantillonnage

Tel qu’illustré dans la figure 1.1, il consiste à prélever périodiquement des échantillons du signal
analogique :

X
xe (t) = x(nTe ) Æ (t nTe) ; (1.1)
n
où Te est la période d’échantillonnage et Æ (t) est le signal dirac défini par
1.2 Numérisation des signaux analogiques 3

Æ ( t) =
< 1 si t = 0 :
: 0 sinon
Le signal échantillonné s’écrit encore

X
xe (t) = x(t) Æ (t nTe ) : (1.2)
n

F IG . 1.1 – Principe de l’échantillonnage.

Sa transformée de Fourier vaut donc

1 X  n

Xe (f ) = X f : (1.3)
Ten Te
Ainsi si fe 2 fmax , il n’y a pas de repliement de spectre et on peut déduire X (f ) à partir de Xe (f )
(voir la figure 1.2)

 
f
X (f ) = Te Xe (f )  ; (1.4)
fe
où (f ) est le signal porte défini par
8

(f ) = : 1 si jf j  2
< 1
:
0 sinon
On en déduit

x(t) = Te fe xe (t)
sinc(fet)
X
= x(nTe)sinc ((t nTe ) =Te ) : (1.5)
n
Ce résultat porte le nom de théorème de Shannon : la fréquence d’échantillonnage doit être supérieure à
deux fois la fréquence maximale du signal traité. Sous cette condition, on peut retrouver exactement le
signal analogique à partir de ses échantillons grâce à (1.5).
4 Introduction

F IG . 1.2 – Spectre d’amplitude d’un signal analogique et de sa version échantillonnée.

1.2.2 La quantification

Après échantillonnage, on obtient un signal à temps discret et à valeurs continues. La quantification


permet de le rendre à valeurs discrètes. La quantification consiste à subdiviser la région où le signal traité
prend ses valeurs grâce à des partitions fxi g1iN +1 . On obtient ainsi N régions et le quantificateur est
dit à N niveaux. Si x (kTe ) 2 [xi xi+1] alors il est quantifié en xb(kTe ) = xbi. La figure 1.3 illustre le
principe de fonctionnement de la quantification. Les paramètres du quantificateur sont donc :
- Le nombre de niveaux du quantificateur : N. N est une puissance de 2 car la sortie du quantificateur
sera codée en binaire.
- La partition : fxi g1iN +1 .
- Les valeurs quantifiées : fx
bi g1iN .
Contrairement à l’échantillonnage, la quantification entraı̂ne une distorsion, elle est mesurée par

 
D = E (x xb)2 : (1.6)

Les paramètres du quantificateur sont donc choisi de sorte que la distorsion D soit minimale. Bien
évidemment, plus N est grand plus la distorsion D est faible. Par contre, plus N augmente plus on uti-
lise de bits pour coder la source. On cherche donc la plus petite valeur de N qui assure les performances
requises.

1.2.2.1 Distorsion due à un quantificateur uniforme et une source uniforme

On considère une source X uniformément distribuée sur l’intervalle [ Xmax Xmax ] :


8
1
2Xmax si jxj  Xmax :
<
pX (x) =
: 0 sinon
Un quantificateur est dit uniforme si les intervalles de quantification ont la même taille et que 8i xbi est
le milieu de l’intervalle [xi xi+1 ] :
1.2 Numérisation des signaux analogiques 5

F IG . 1.3 – Principe de fonctionnement de la quantification.

8
< xi+1 xi = 2XNmax
(1.7)
: xbi = xi +2xi+1
En développant les calculs, on obtient

D=
N Z xi+1
X
(x xbi )2 pX (x)dx =
1  Xmax 2 :
i=1 xi
3 N (1.8)

On montrera dans la section suivante que le quantificateur uniforme est le quantificateur optimal pour
une source uniforme.

1.2.2 Le quantificateur optimal

Afin de minimiser D , il faut faire de petites partitions dans les régions où la source X prend souvent
ses valeurs :

@D
@xi
= 0 () xi = xbi 12+ xbi : (1.9)

R xi+1
@D x pX (x) dx
@ xbi
= 0 () xbi = Rxixi+1
pX (x) dx
= E (X = xi  X  xi+1) : (1.10)
xi
Cette dernière équation montre que x
bi optimal est le centroı̈de de la région [xi xi+1] :
La résolution de (1.9) et (1.10) se fait grâce à l’algorithme de Lloyd Max :
1) Commencer avec une partition quelconque.
2) En déduire les valeurs quantifiées grâce à (1.10).
3) Mettre à jour les partitions grâce à (1.9).
4) Revenir à l’étape 2) tant qu’il n’y a pas eu convergence des partitions et des valeurs quantifiées.
6 Introduction

1.3 La chaı̂ne de transmission numérique

Elle est composée des éléments suivants : Source analogique, échantillonnage, quantification, codage
de source, codage canal, modulation, canal de transmission, démodulation, décodage canal, décodage
source. On obtient ainsi la source numérique reconstituée. Dans le cas d’un signal numérique provenant
de la numérisation d’un signal analogique, on peut reconstituer le signal analogique original en inversant
le codage binaire effectué par le quantificateur puis en filtrant par un filtre passe bas. La structure de la
chaı̂ne de transmission numérique est illustrée dans la figure 1.4.

F IG . 1.4 – Chaı̂ne de transmission numérique.

Le codage de source a pour rôle de comprimer la source numérique c’est à dire de la représenter sur
moins de bits. On distingue deux catégories de codeurs de sources : Les codeurs entropiques basés sur la
connaissance des statistiques de la source. Ils consistent à associer aux mots de source les plus probables
les étiquettes les plus courtes. Les codeurs exploitant la corrélation temporelle ou spatiale de la source.
Le codage de canal a pour but de rajouter de la redondance intelligente permettant la détection et la
correction des erreurs de transmission. Les codeurs canal les plus utilisés sont : les codes en blocs, les
codes cycliques (Reed- Solomon, BCH), les codes convolutifs et les turbo codes.
1.3 La chaı̂ne de transmission numérique 7

La modulation consiste à changer les paramètres d’une onde sinusoı̈dale appelée porteuse en fonction
de l’information à émettre. Elle sera traitée dans les chapitres 2 à 4.
Le canal de transmission est souvent modélisé par un filtre linéaire dont les coefficients peuvent va-
rier dans le temps suivi du rajout d’un bruit souvent supposé blanc et gaussien. Ce bruit modélise la
somme des interférence des signaux des autres utilisateurs ainsi que le bruit thermique ce qui explique
qu’on l’approxime par un bruit gaussien grâce au théorème de limite centrale. On utilise également le
modèle de canal CBS (Canal Binaire Symétrique) dont le schéma principe est donné dans la figure 1.5.
C’est un canal sans mémoire, à entrée et sortie binaire qui permet de modéliser l’ensemble “modu-
lation+canal+démodulateur”. Il est souvent utilisé pour étudier les performances des codes correcteur
d’erreurs.

F IG . 1.5 – Canal Binaire Symétrique.


8 Introduction
Chapitre 2

Les codes en ligne

2.1 Introduction

Pour pouvoir être transmis, un signal doit être conforme aux caractéristiques du canal de transmis-
sion. Les signaux numériques sont à temps discret alors que les canaux de transmission sont à temps
continu. La modulation est une opération qui consiste à associer à une suite binaire finie un signal analo-
gique :

(a1    aN ) ! s(t; a1    aN ):
2
On doit donc prévoir N signaux différents pour coder les différents N -uplets binaires. Il est évident que
cette approche doit être simplifiée pour être utilisable en pratique.

2.2 Les Modulations d’Impulsions en Amplitude (MIA)

2.2.1 Définition

Elle consiste à transmettre une somme d’impulsions décalées dans le temps dont l’amplitude dépend
de la suite binaire à transmettre :

X
s(t) = dk g(t kTs ); (2.1)
k

où fdk g est la suite de symboles à transmettre, dk dépend du k -ème N -uplet binaire émis akN +1    a(k+1)N ,
g(t) est le filtre de mise en forme et Ts est la période symbole. Les symboles dk appartiennent donc à un
alphabet A de cardinal jAj = 2N .
On appelle constellation le lieu géométrique des symboles. On place prés de chaque point de la constel-
lation l’étiquette binaire correspondante. Etant donné que les erreurs les plus fréquentes se produisent
10 Les codes en ligne

entre les symboles voisins, on leur alloue des étiquettes qui ne diffèrent que par un seul bit. Ce codage
porte le nom de codage de Gray, il permet de minimiser la probabilité d’erreur binaire. En effet, si on
utilise un codage de Gray, une erreur entre deux symboles voisins entraı̂ne un seul bit faux sur N . Ainsi
à fort Rapport Signal à Bruit (RSB), on a

Pes
Peb  : (2.2)
N

2.2.2 Paramètres

Le débit symbole qu’on appelle aussi rapidité de la modulation s’exprime en bauds. Il est donné par

Ds =
1: (2.3)
Ts
Chaque symbole émis correspond à N bits, ainsi

Ts
Tb = :
log2 (jAj)
(2.4)

On en déduit le débit binaire

Db =
1 = log2 (jAj) Ds: (2.5)
b T
On définit également l’énergie moyenne transmise par symbole comme suit

 Z
Es = E jdk j2 g(t)2 dt = P Ts ; (2.6)

où P est la puissance de transmission.


On en déduit l’énergie moyenne transmise par bit

Es
Eb = :
log2 (jAj)
(2.7)

2.3 Les codes en ligne

2.3.1 Définition

Les codes en ligne sont des MIA particulières. En général, ils sont choisis afin de vérifier certaines
propriétés tel que :
- Synchronisation simple du récepteur.
- Densité Spectrale de Puissance (DSP) nulle à f = 0 : permet d’éviter les interférences avec l’alimenta-
tion.
2.3 Les codes en ligne 11

- Certains codes en lignes permettent le contrôle des erreurs de transmission.


- Ces propriétés doivent être vérifiées quelque soit les statistiques de la suite binaire.
Ces conditions nous amènent à étudier la DSP du signal émis (2.1).

2.3.2 La formule de Benett

Elle donne la DSP du signal s (t) :

Ss (f ) = T F (Rs ( ))
 
2
= jG(Tf )j
2 X 2X
2jkTs f + jmd j
 k
( Tk ) ; (2.8)

Rd (k) jmd j2 e Æ f G
s k
Ts2 k
Ts
s

où md = E (dk ) et Rd (k) = E dn dn k :
- Le calcul de Rd (k ) s’obtient à partir de la loi conjointe p (dn ; dn k ) :

XX
Rd (k) = x y p (dn = x; dn k = y) (2.9)
x y
X
= z p dn dn k = z :
z
- On remarque que la DSP de s(t) est composée d’un spectre continu Sc (f ) et d’un spectre de raies
Sr (f ). Le spectre de raies permet de récupérer l’horloge c’est à dire les instants de transmission des
symboles.
= 0.
- Le spectre de raies est nulle si md

- Si les dk sont indépendants alors Rd (k ) = E dn dn k = jmdj2 8k 6= 0 et le spectre continu se
simplifie en

Sc(f ) = V ar(dk )
jG(f )j2 : (2.10)
Ts
Dans ce cours, on supposera que les ak sont indépendants. Les dk seront donc indépendants sauf si le
procédé de codage des bits en symboles entraı̂ne la dépendance des dk .
- La puissance de transmission peut être déduite de la DSP. On aura donc la somme de la puissance du
spectre continu, Pc , et celle du spectre de raies Pr :

Z
P = Ss (f )df = Pc + Pr : (2.11)

- On peut donc modifier le spectre par le choix de la mise en forme ou en introduisant volontairement de
la corrélation entre les symboles dk :
12 Les codes en ligne

2.3.3 Exemples de codes en lignes

2.3.3.1 Le code NRZ (Non Retour à Zéro)

- Codeur : On associe ak = 1 (resp. 0) à dk = A (resp. 0).


- Mise en forme :
8
1 
t 1
 < 1
pT si t 2 [0 Ts ]
g(t) = p  = s
Ts Ts 2 : 0 sinon
On en déduit

p
jG(f )j2 = Tssinc (Tsf )2 ;
où

sin (x)
sinc(x) =
x :
En utilisant la formule de Benett, on obtient

A2 A2
Ss (f ) = sinc (Ts f )2 +
4 4Ts Æ (f ) :
On en déduit

A2
Pc = Pr =
4Ts :
2
P = 2ATs :
A2
Es = Eb =
2:
Ce dernier résultat peut être aussi obtenu grâce à (2.6). La DSP d’un signal NRZ est illustrée dans la
figure 2.1.

2.3.3.2 Le code NRZ symétrique

- Codeur : On associe ak = 1 (resp.



0) à dk = A (resp. -A).
- Mise en forme : g (t) = p1T  Tts 21 :
s
En utilisant la formule de Benett, on obtient

Ss (f ) = A2 sin c (Ts f )2 :
2.3 Les codes en ligne 13

F IG . 2.1 – DSP d’un signal NRZ.

On en déduit que

2
P = Pc = ATs :

Es = Eb = A2 :

La DSP d’un signal NRZ symétrique est illustrée dans la figure 2.2.

A2
Ss(f)

0
−2/T −1/T 1/T 2/T f
s s s s

F IG . 2.2 – DSP d’un signal NRZ symet́rique.


14 Les codes en ligne

2.3.3.3 Le code RZ

- Codeur : On associe ak = 1 (resp. 0) à dk = A (resp. 0).


- Mise en forme :
8 q

g(t) =
r
2  2t 1 =  < 2
Ts si t 2 [0 Ts=2] :
Ts Ts 2 : 0 sinon
En utilisant la formule de Benett, on obtient

 2 
Ss (f ) =
A2 Ts
+ 2A2 Ts (2k +1 1)2 Æ f
2 X 2k + 1  + A2 Æ(f ):
8 sinc 2 f k
Ts 8Ts
On en déduit que

A2
Pc =
4Ts :

Pr =
A2
+ A2 X 1
8Ts 2 Ts k (2k + 1)2
2
En utilisant

X 1 = 2 ;
k0
k2 6
On en déduit que

X 1 = 2 :
k (2k + 1)2 4
d’où

A2
Pr =
4Ts :
A2
Es = Eb =
2:
La DSP d’un signal RZ est illustrée dans la figure 2.3.
2.4 TD 1 : La formule de Benett 15

F IG . 2.3 – DSP d’un signal RZ.

2.4 TD 1 : La formule de Benett

Dans les exercices 1 à 3, nous supposons que la suite ak est i.i.d.

Exercice I : Le code Biphase ou encore Manchester

Le code Biphase consiste à associer ak = 1 (resp. 0) à dk = A (resp. A) . Le filtre de mise en forme


est donné par
8
>
>
> p1T si t 2 [0 Ts =2]
< s
g(t) = p1T si t 2 [Ts =2 Ts ] :
>
> s
>
: 0 sinon
Calculer la Densité Spectrale de Puissance (DSP) du signal émis ainsi que l’énergie moyenne transmise
par bit.
16 Les codes en ligne

Exercice II : Le code AMI (Alternate Marked Inversion) ou encore Bipo-


laire

Le code AMI consiste à coder ak = 0 en dk = 0 et ak = 1 en dk = A et -A alternativement.


Le filtre de mise en forme est rectangulaire de durée Ts et d’énergie 1.
On peut remarquer que les zéros successifs conservent la mémoire d’où la notation 0+ et 0 pour
désigner respectivement les zéros qui suivent A et -A. Par exemple : a = [1 0 0 1 0 0] est codé en
 
d = A 0+ 0+ -A 0 0 :
On suppose que
P (d0 = A) = P (d0 = A) = P (d0 = 0+ ) = P (d0 = 0 ):
( = A) et P (dk = A):
1. Donner l’équation reliant P dk
2. Donner l’équation reliant P (dk = 0+ ) et P (dk = 0 ):
3. Exprimer P (dk = A) en fonction de P (dk 1 = A); P (dk 1 = A); P (dk 1 = 0+) et P (dk 1 =
0 ):
4. Exprimer P (dk = 0+ ) en fonction de P (dk 1 = A); P (dk 1 = A); P (dk 1 = 0+ ) et P (dk 1 =
0 ):
5. Démontrer par récurrence que

P (dk = A) = P (dk = A) = P (dk = 0+ ) = P (dk = 0 ) = 1=4:


En déduire md = E (dk ) et Rd(0) = E (d2k ):
(
6. Dresser le tableau de transition donnant les probabilités conjointes P dk ; dk 1 ):
7. En déduire Rd (1) = E (dk dk 1):
8. Démontrer que dk et dk i sont indépendants 8i  2.
9. Déterminer la DSP du signal émis.

Exercice III : Le code Différentiel

Le code différentiel consiste à coder ak = 0 en dk = dk 1 et ak = 1 en dk = dk 1 où dk 2 fAg. Le


filtre de mise en forme est rectangulaire de durée Ts et d’énergie 1. Calculer la DSP du signal émis.
2.4 TD 1 : La formule de Benett 17

Problème

On considère le codeur en ligne différentiel défini par :


8
< dk = dk 1 si ak = 0
; (2.12)
: dk = dk 1 si ak = 1
où dk 2 fAg :
Le filtre de mise en forme est donné par
8
< p1T si t 2 [0 Ts ]
g(t) = s :
: 0 sinon

Les bits ak sont indépendants et on suppose que p = P (ak = 1) 6= 1=2:


1. Donner l’équation reliant uk = P (dk = A) et uk 1 = P (dk 1 = A).
2. Donner l’équation reliant vk = P (dk = A) et vk 1 = P (dk 1 = A).
3. En déduire P (dk = A); P (dk = A) et md = E (dk ) : On rappelle que la solution du problème
suivant
wk awk 1 = b; (2.13)

= ak + wk0 où wk0 est une solution particulière. Déterminer la valeur de la constante sachant
s’écrit wk
que u0 = v0 = 1=2:
4. Calculer Rd (0) = E (d2k )
5. Dresser le tableau de transition donnant p(dk ; dk 1 ) et en déduire Rd (1).
6. Donner l’équation reliant dk , dk 1 et bk = 1 2ak :
7. Exprimer le produit dk dk 1 en fonction de bk puis déduire Rd (1) = E (dk dk 1 ).
8. En suivant la même démarche déterminer Rd (m) = E (dk dk m ):
9. En déduire la DSP du signal émis par un codeur en ligne différentiel. On rappelle la formule de Benett :


jG(f )j2 X R (k) jm j2 e 2X k k 2
Ss(f ) =
T d d
2jkTsf + jmdj Æ(f
Ts2
) G( ) :
Ts Ts
(2.14)
s k k
18 Les codes en ligne
Chapitre 3

Transmission en bande de base sur un


canal à bande illimitée

3.1 Introduction

Dans ce chapitre, on établit la structure du récepteur optimal pour une transmission en bande de
base. Le canal est supposé à bande illimitée cela veut dire qu’il n’introduit aucun filtrage sur le signal
émis. Cette condition est satisfaite si la bande passante du canal est très supérieure au débit symbole
Ds . En effet, d’après la formule de Benett, la bande du signal émis est proportionnelle à Ds . Bien que
le canal n’effectue aucun filtrage, les autres signaux émis sur le même canal perturbent le signal utile.
Cette interférence est souvent modélisée par un bruit gaussien grâce au théorème de limite centrale. On
suppose également que ce bruit est stationnaire, blanc et centré. Le signal reçu s’écrit alors

r(t) = s(t) + b(t); (3.1)

(t) est dit Bruit Blanc Additif et Gaussien (BBAG) (Additive White Gaussian Noise (AWGN)).
où b
La DSP du bruit b(t) est notée

N
Sb (f ) = 0 ; 8f:
2 (3.2)

On rappelle que la densité de probabilité (ddp) d’une variable aléaoire (v. a.) X gaussienne est donnée
par
" #
fX (x) = q
1 exp (x mX )2 ;
2X2 2X2 (3.3)

où
20 Transmission en bande de base sur un canal à bande illimitée

mX = E (X ) ;
et

 
X2 = E (X mX )2 :

3.2 Réception optimale

3.2.1 Structure du récepteur

Tel qu’illustré dans la figure 3.1, le récepteur est composé d’un filtre de réception gr (t) suivi d’un
échantillonneur à t0 + nTs puis d’un comparateur à seuil.

F IG . 3.1 – Structure du récepteur optimal.

3.2.2 Transmission d’un seul symbole

1
On considère la transmission d’un seul symbole d0 valant  . Si on utilise une MIA, le signal reçu
s’écrit alors

r(t) = d0 g(t) + b(t): (3.4)

Le signal à la sortie du filtre de réception est donné par

z (t) = (r
gr )(t) = d0 p(t) + B (t); (3.5)

où p = g
gr et B = b
gr :
Il est à noter que B (t) est un bruit gaussien car obtenu par filtrage d’un bruit gaussien. Il est aussi
stationnaire et centré :

Z
E (B (t)) = E (b(t)) gr (t)dt = 0:
3.2 Réception optimale 21

B (t) est coloré, sa DSP est donnée par

N
SB (f ) = 0 jGr (f )j2 :
2
On en déduit sa variance :

Z
N0
2
B = 2 jGr (f )j2 df: (3.6)

3.2.2.1 Choix du seuil optimal

Le seuil de décision ne se situe pas toujours au milieu des symboles de la constellation. Il est
déterminé en minimisant la probabilité d’erreur donnée par

   
Pe = P = 1; d0 = 1 + P = 1; d0 = 1 ;
db0 db0 (3.7)
   
= P 1 P d
b0 = 1 =d 0 = 1 + P1 P d
b 0 = 1 =d 0 = 1 :

où P 1 = P (d0 = 1) et P1 = P (d0 = 1).


Le seuil de décision s est utilisé comme suit : si z t0 ( ) > s alors db0 = 1 sinon db0 = 1.
Ainsi

 
P db0 = 1=d0 = 1 = P ( p(t0 ) + B (t0 ) > s)

=
Z +1
q
1 e (x+p(t0 ))2
2 2
B dx:
s 2B2
En introduisant la fonction de Marcum définie par

 2
Q(x) =
Z +1 1 u
p exp 2 du:
x 2
On obtient

 
= Q s +p(t0) :
 
P db0 = 1=d0 = 1 (3.8)
B
En suivant la même démarche, on obtient

 
= 1=d0 = 1 = Q s + p(t0 ) :
 
P db0 (3.9)
B
Nous allons à présent rechercher le seuil optimal en minimisant Pe :
22 Transmission en bande de base sur un canal à bande illimitée

" ! !#
dPe
ds
=q1 2 P 1 exp
(s + p(t0))2 + P1 exp
2B2
( s + p(t0))2
2B2 =0
2B
On déduit le seuil optimal

 
B2 P 1
sopt =
2p(t0 ) P1 :
ln (3.10)

On vérifie aisément que l’optimum trouvé correspond à un minimum c’est à dire que ddsP2e s=s > 0:
2

opt
Ainsi le seuil optimal se trouve au milieu des symboles de la constellation sssi ils sont équiprobables. En
1
outre, on vérifie que si P 1 ! alors sopt ! 1 c’est à dire qu’on décide toujours 1. Enfin, si PP11
6 et que le rapport signal à bruit  p(tB0 ) diminue, alors le seuil s’éloigne du milieu ce qui fait qu’on
=1 =
utilise plus l’a priori qu’on a sur la probabilité d’occurrence des symboles que le signal reçu.
Enfin, en utilisant (3.7)-(3.10), on obtient

   
k k
Pe = P 1 Q  + + P1 Q  ; (3.11)
 
 
où k = 12 ln P 1
P1 :

3.2.2.2 Filtrage adapté

Pe est une fonction décroissante en , en effet

  !  !
dPe
= pP 1 k 1  + k 2 P1

1 + k2 exp

1  k 2
2 1 exp
2 p 2
d 2  2 
 2 !    
= pP 1 exp 1 + k 1 k
+ PP11 1 + k2 exp(2k)
2 2  2
!
= 2pP 1 exp 1  + k 2 < 0
2 2 
Ainsi, pour minimiser Pe , il suffit de maximiser le rapport signal à bruit . En utilisant l’inégalité de
Schwartz,

Z 2 Z Z


fg  jf j2 jgj2 ;
on obtient

R 
gr (u)g(t0 u)du 2
 N2 2Eb :
Z
2 = N0 R g (u)2 du g(t0 u)2 du = (3.12)
2 r 0 N0
3.2 Réception optimale 23

La valeur maximale du rapport signal à bruit est atteinte lorsque

gr (u) = g (t0 u); (3.13)

où  est une constante. Le filtre de réception définit par (3.13) est appelé filtre adapté.
Si les symboles sont équiprobables, on en déduit

r ! r !
Pe = Q
2Eb = 1 erfc Eb
;
N0 2 N0
(3.14)

où erfc (x) est la fonction d’erreur complémentaire définie par

p2 exp u2 du:
Z +1 
erfc(x) =
x  (3.15)

En faisant un changement de variable, on obtient

 
1 x
Q(x) = erfc p :
2 2 (3.16)

Eb en dB. La modulation
La figure 3.2 illustre l’évolution de la probabilité d’erreur en fonction de N 0

utilisée est une Modulation à Déplacement d’Amplitude à 2 états (MDA-2).


−1
10

−2
10

−3
10
Pe

−4
10

−5
10

−6
10
0 1 2 3 4 5 6 7 8 9 10
E /N (dB)
b 0

F IG . 3.2 – Probabilité d’erreur pour une MDA-2.

3.2.3 Transmission de plusieurs symboles : le critère de Nyquist

Dans ce qui suit, il s’agit d’établir la condition que doit vérifier le filtre de mise en forme pour ne pas
avoir de l’Interférence Entre Symboles (IES) (InterSymbol Interference ISI). L’IES est la contribution
24 Transmission en bande de base sur un canal à bande illimitée

des autres symboles sur la variable de décision du symbole utile.


Le signal à la sortie de l’échantillonneur est donné par

X
z (t0 + nTs ) = dk p (t0 + (n k)Ts ) + B (t0 + nTs);
k
X
= dn p(t0 ) + dn k p (t0 + kTs ) + B (t0 + nTs ): (3.17)
k6=0

Pour ne pas avoir de l’IES, il faut que

X
p(t0 + kTs ) = 0 8k 6= 0 () p(t0 + kTs )Æ(t kTs ) = p(t0 )Æ(t):
k
On pose p1 (t) = p(t0 + t), on en déduit
X k
P1 (f ) = Ts p(t0):
k
Ts
En utilisant (3.13) pour  =1 ; on obtient

P1 (f ) = jG(f )j2 :
Ainsi pour ne pas avoir de l’IES, le filtre de mise en forme doit vérifier le critère de Nyquist :


X k 2
G
(f ) = Ts p(t0):
Ts
(3.18)
k
On en déduit que la transmission à un débit Ds = T1s nécessite au moins une bande égale Ds. Le filtre
qui vérifie le critère de Nyquist et qui possède la plus petite bande passante est un filtre rectangulaire de
support [ 2Ts 2Ts ]:
1 1
En pratique, il faut utiliser des filtres réalisables tel que le filtre en cosinus surélevé défini par :

8
>
>
>
<
Ts p(t0 ) si jf j  12Ts 
h  i
P1 (f ) = jG(f )j2 = Ts p(t ) 1 sin Ts jf j
2 0
1
2Ts si 12Ts  jf j  1+
2Ts : (3.19)
>
>
>
: 0 sinon
On donne également sa réponse impulsionnelle
 
cos T t 
t

p1 (t) = p1 (0) s
sinc ;
1 4 22t2 (3.20)
Ts
Ts
où est appelé roll-off ou encore coefficient de retombée.
3.3 Le diagramme d’oeil 25

Le filtre de mise en forme correspondant est donné par


8 p
>
> Tp
< p s
> (t0) si jf j  12Ts 
G(f ) = Ts p(t0 )cos 2T s jf j 1
2Ts si 12Ts  jf j  1+
2Ts : (3.21)
>
>
>
: 0 sinon
    
cos (1+ )t
+ sin (1 )t 4 t 1
p Ts Ts Ts
g(t) = 4 p1 (0)   :
pT
 (3.22)
s
4 t 2 1
Ts

Il est à noter que plus est petit plus le support fréquentiel du filtre g(t) est petit et plus son support
temporel est grand.

3.3 Le diagramme d’oeil

Le diagramme d’oeil permet de caractériser l’IES à chaque instant. L’allure générale de ce dia-
gramme a la forme d’un ou de plusieurs yeux (voir les figures 3.3 et 3.4). Il est défini comme l’ensemble
des trajectoires possibles du signal non bruité à la sortie du filtre adapté. Il est obtenu en superposant
toutes les trajectoires possibles du signal z (t) non bruité :
X
z (t) = dk p(t kTs ): (3.23)
k
()
Si le support temporel de p t est égal à LTs et que les dk appartiennent à une constellation de cardinal
M , alors il faut générer M L trajectoires. Tel qu’illustré dans les figures 3.3 et 3.4, toutes les trajectoires
passent par un point unique à l’instant d’échantillonnage ceci permet de vérifier l’absence d’IES à cet
instant. Enfin, nous remarquons que plus est petit (resp. grand) plus le diagramme d’oeil est fermé
(resp. ouvert). Lorsque le diagramme d’oeil est ouvert, on est moins sensible à des erreurs d’estimation
de l’instant d’échantillonnage.
26 Transmission en bande de base sur un canal à bande illimitée

F IG . 3.3 – Diagramme d’oeil pour =1.

F IG . 3.4 – Diagramme d’oeil pour =0.2.


3.4 TD 2 : Transmission en bande de base sur un canal à bande illimitée 27

3.4 TD 2 : Transmission en bande de base sur un canal à bande illimitée

Exercice :

Pour effectuer une transmission sans Interférence Entre Symboles (IES), le filtre global (convolution
du filtre d’émission et de réception) doit vérifier le critère de Nyquist. Préciser pour chacun des filtres
ci-dessous s’ils permettent une transmission sans IES et à quel débit symbole ?

Problème 1 :

Pour transmettre une suite d’éléments binaires indépendants, prenant les valeurs 0 et 1 avec la même
probabilité, on utilise deux signaux s0 (t) et s1(t) de durée Ts. Ainsi, pendant l’intervalle [kTs (k +1)Ts ],
on émet s0 (t kTs) ou s1(t kTs) selon la valeur de l’élément binaire à transmettre. On s’intéresse à
l’intervalle [0 Ts ] et on suppose que le récepteur est composé d’un filtre Gr (f ) de réponse impulsionnelle
gr (t), suivi d’un échantillonneur à l’instant t0 et d’un comparateur à seuil.
Pendant l’intervalle [0 Ts ], le signal r (t) à l’entrée du récepteur s’écrit

r(t) = s0 (t) + b(t) ou s1 (t) + b(t);

où b(t) est un bruit blanc, gaussien, centré, indépendant du signal utile et de densité spectrale de puissance
égale à N0 =2.
28 Transmission en bande de base sur un canal à bande illimitée

1. Calculer la valeur du signal à l’instant d’échantillonnage en absence de bruit, respectivement lorsque


l’élément binaire 0 ou 1 a été transmis. On appellera u0 et u1 ces deux valeurs, que l’on exprimera sous
forme d’intégrales faisant intervenir Gr (f ) et, respectivement, S0(f ) et S1 (f ).
2. Exprimer la probabilité d’erreur binaire grâce à la fonction de Marcum et déduire l’expression du seuil
optimal. On notera B l’écart type du bruit B (t) = (b
gr )(t).
3. Montrer que la probabilité d’erreur correspondante au seuil optimal ne dépend que du rapport  quo-
tient de la différence u1 u0 par B . Exprimer B2 en fonction de N0 et Gr (f ).
4. En utilisant l’inégalité de Schwartz, montrer que  est maximal si le filtre gr (t) est adapté au signal
s1 (t) s0 (t).
5. Exprimer la probabilité d’erreur binaire ainsi optimisée en fonction de la distance euclidienne entre
les deux signaux s1 (t) et s0(t) :
Z Ts
2 = [s1(t) s0 (t)]2 dt:
0
6. Déduire l’expression de la probabilité d’erreur pour le code RZ et le code NRZ symétrique. On expri-
mera la probabilité d’erreur binaire en fonction de l’énergie moyenne transmise par bit.

Problème 2 : Modulation à Déplacement d’Amplitude (MDA) avec connais-


sance imparfaite de l’amplitude du canal

On considère une chaı̂ne de communication en bande de base utilisant une Modulation à Déplacement
d’Amplitude (MDA) à 4 états. On désigne par Ts la période symbole. On suppose que les symboles émis
prennent, de manière équiprobable, leurs valeurs dans l’alphabet
= f 3d; d; d; 3dg. Le symbole ak ,
émis à l’instant kTs , permet de transmettre deux éléments binaires, 2k et 2k+1 , selon le codage de
Gray suivant :

ak 2k 2k+1
3d 00
d 01
d 11
3d 10

Après filtrage de mise en forme à l’émission, transmission sur un canal idéal rajoutant un bruit réel blanc
gaussien, filtrage adapté en réception et échantillonnage aux instants kTs , on obtient des échantillons de
la forme :
3.4 TD 2 : Transmission en bande de base sur un canal à bande illimitée 29

yk = ak + bk ;
où bk est un bruit réel gaussien centré (de moyenne nulle) et de variance 2 .
1) a) Donner, sans justification, les 3 seuils optimums de décision, s  s0  s1, sur les symboles ak .
b) Représenter sur un axe, les 4 régions de décision des valeurs 3d; d; d et 3d prises par le symbole
ak .
c) Représenter sur le même axe les régions de décisions correspondant aux valeurs 0 et 1 prises par les
éléments binaires 2k et 2k+1 (à noter que les régions de décision de 2k et de 2k+1 sont différentes).
On suppose dans toute la suite que le canal introduit une modification de l’amplitude du signal reçu de
telle sorte que les échantillons obtenus s’écrivent

yk = ak + bk ;
où  est un facteur multiplicatif réel strictement positif. Quand  est inférieur (respectivement, supérieur)
à 1, le canal introduit une atténuation (respectivement, amplification) du signal utile. On suppose que
le récepteur n’a aucune connaissance de la valeur de  et qu’il continue donc à utiliser les régions de
décisions déterminées précédemment en 1Æ ) b) et 1Æ ) c).
2) Pour une valeur arbitraire de , représenter les densités de probabilité, p (yk =ak ), de l’échantillon
yk reçu à l’instant kTs conditionnellement à chacune des valeurs prises par ak dans l’alphabet
. On
représentera yk en abscisse et p (yk =ak ) en ordonnée pour chaque valeur de ak .
3) Déterminer les valeurs minimale, min , et maximale, max , entre lesquelles  doit strictement prendre
ses valeurs afin que la probabilité d’erreur symbole (mais aussi binaire) puissent tendre vers 0 quand le
rapport signal sur bruit d2 = 2 tend vers l’infini.
On suppose dans toute la suite que  vérifie

min    max :

4) a) Exprimer la probabilité d’erreur symbole, Pes=ak , pour chacune des valeurs 3d; d; d et 3d de
ak , en fonction des paramètres ,  et d et de la fonction erfc(:).
Rappel : Si X est une variable aléatoire réelle gaussienne de moyenne m et de variance 2 , et si c est un
réel quelconque, alors

" #
p1 exp (x 2m )2 1
Z +1 c m
P (X  c) = dx = erfc( p ):
c  2 2 2  2
b) En déduire la probabilité d’erreur symbole moyenne Pes .
30 Transmission en bande de base sur un canal à bande illimitée

5) a) Exprimer la probabilité d’erreur binaire, Peb= 2k , pour chacune des valeurs 0 et 1 de 2k ; en


fonction des paramètres ,  et d et de la fonction erfc (:).
b) Exprimer la probabilité d’erreur binaire, Peb= 2k+1 , pour chacune des valeurs 0 et 1 de 2k+1 ; en
fonction des paramètres ,  et d et de la fonction erfc (:).
c) En déduire la probabilité d’erreur binaire moyenne Peb .
Chapitre 4

Transmission sur onde porteuse sur un


canal à bande illimitée

4.1 Définition des modulations numériques

La modulation de porteuse consiste à faire varier l’amplitude, la phase ou la fréquence d’une onde
sinusoı̈dale, appelée onde porteuse, en fonction du signal d’information, appelé modulant. Parmi les
objectifs de l’opération de modulation, on peut citer le multiplexage fréquentiel et l’adaptation à la bande
passante du canal de transmission.
Pour les modulations numériques, le message numérique est d’abord fragmenté en mots de codes
composés de N éléments binaires. Chacun des M =2
N mots de codes ainsi obtenus est associé à un

état parmi M de la grandeur à moduler. Le récepteur utilise le signal reçu afin d’estimer le mot de code
émis.

4.1.1 La modulation à déplacement d’amplitude (MDA)

En anglais, cette modulation s’appelle ASK (Amplitude Shift Keying). Le signal modulé s’écrit
comme suit

u(t) = a(t) cos (2f0 t + 0 ) ; (4.1)

où

X
a(t) = (
ak [0 Ts ] t kTs ; )
k

ak est le k-ème symbole M -aire à transmettre, f0 et 0 sont respectivement la fréquence et la phase de
la porteuse.
32 Transmission sur onde porteuse sur un canal à bande illimitée

Un exemple de modulation MDA est la modulation tout ou rien (OOK : On Off Keying) où ak 2 f0; 1g.
Afin de minimiser la probabilité d’erreur, les symboles de la constellation sont uniformément espacés.
Ainsi, pour une MDA-M, la constellation est de la forme :

f (M 1) A; (M 3)A;    ; A; A;    ; (M 1)Ag :
4.1.2 La modulation à déplacement de phase (MDP)

En anglais, cette modulation s’appelle PSK (Phase Shift Keying). Le signal modulé est donné par

u(t) = B cos (2f0 t + (t)) ; (4.2)

où

X
(t) = ak [0 Ts ] (t kTs ) :
k
u(t) s’écrit encore
X
u(t) = B cos (2f0 t + ak ) [0 Ts ] (t kTs ) :
k
Lorsque les états de la phase sont uniformément répartis, on obtient la constellation suivante

 
0 + (2k + 1)
 :
Mk=0M 1
Pour M = 4 et 0 = 0 , la modulation obtenue s’appelle QPSK (Quadrature Phase Shift Keying).
Le signal MDP s’écrit encore :

X
u(t) = B [ (2 ) ( ) (2 ) ( )]
cos f0 t cos ak sin f0 t sin ak [0 Ts ] t kTs : ( )(4.3)
k
Ainsi, le signal MDP est la somme de deux porteuses en quadrature modulées en amplitude. Il y a donc
une forte similarité entre la MDP et la MDA. Par exemple, MDP2 avec ak 2 f0; g équivaut à une
MDA2 avec ak 2 f1; 1g :

4.1.3 La modulation d’amplitude sur deux porteuses en quadratures (MAQ)

En anglais, cette modulation s’appelle QAM (Quadrature Amplitude Modulation). Le signal modulé
est donné par :

u(t) = uc(t) cos(2f0 t) us (t) sin(2f0 t); (4.4)


4.1 Définition des modulations numériques 33

où

X
uc (t) = ak [0 Ts ] (t kTs ) ;
k

X
us(t) = bk [0 Ts ] (t kTs ) ;
k
p
fak g et fbk g sont deux suites de symboles M -aires. On obtient ainsi une modulation à M états.
Le signal MAQ s’écrit encore :

X
u(t) = Ak cos(2f0 t + k )[0 Ts ] (t kTs ) ; (4.5)
k
où

q
Ak = a2k + b2k ;
et

 
k = arctan abk :
k
Ainsi, la MAQ est à la fois une modulation de phase et d’amplitude. En général les ak et bk sont
indépendants et prennent leurs valeurs dans un même alphabet de la forme :

n  p  p p o
M 1 A; ( M 3)A;    ; A; A;    ; ( M 1)A :
Par exemple, si ak et bk 2 fA; 3Ag, on obtient une MAQ-16. La modulation MAQ-16 a été largement
utilisée pour les faisceaux hertéziens à grande capacité au courant des années 1980.
On peut aussi utiliser des modulations MAQ d’ordre L où L n’est pas un carré parfait. Cette modu-
lation est construite à partir de la constellation d’ordre N2 ; où N 2 est le carré immédiatement supérieur
à L; en interdisant N 2 L points. Afin d’optimiser les performances du système de transmission, ces
points sont choisis afin de minimiser l’énergie moyenne dépensée par symbole. Par exemple, la MAQ 32
est déduite de la MAQ 36 en enlevant les 4 symboles extrêmes.

4.1.4 La modulation de fréquence (MDF)

En anglais, cette modulation s’appelle FSK (Frequency Shift Keying). Elle est moins utilisée que
MDA, MDP et MAQ. Elle est souvent utilisée dans les systèmes optiques car il est plus facile de
démoduler des sources optiques en fréquence qu’en phase ou amplitude.
34 Transmission sur onde porteuse sur un canal à bande illimitée

Pour cette modulation, la fréquence instantanée de la porteuse prend un certain nombre de valeurs
discrètes associés aux états possibles de l’information à transmettre. Par exemple, pour une MDF bi-
naire, on aura deux fréquences f1 et f2 associées aux deux valeurs binaires. On note f0 = (f1 + f2) =2
et f = jf1 f2 j l’excursion maximale de fréquence. L’indice de modulation est alors donné par

=
f = Tsf , (4.6)
fmax
où fmax est la fréquence maximale du modulant.
La fréquence instantanée de la porteuse pour une MDF-2 est alors donnée par

f (t) = f0 +
f X a  (t kTs ) ;
2 k k [0 Ts ] (4.7)

où ak 2 f 1; 1g.
On en déduit la phase instantanée

(t) =  fak (t kTs ) + k ; 8k 2 [kTs (k + 1) Ts ] . (4.8)

On distingue deux types de MDF à savoir la MDF à phase continue et la MDF à phase discontinue. Dans
le cas d’une MDF à phase continue, on a

k = k 1 +   ak 1 ; 8k: (4.9)

4.2 Enveloppe complexe

4.2.1 Introduction

L’enveloppe complexe ue (t) d’un signal u(t) peut être définie par
n o
u(t) = Re ue (t)e2jf0 t : (4.10)

En utilisant l’expression du signal émis pour les différentes modulations, on obtient :


- MDA :

X
u(t) = ak [0 Ts ](t kTs )cos (2f0 t + 0 )
k
X
ue (t) = ak ej 0 [0 Ts ] (t kTs ) :
k
- MDP :
4.2 Enveloppe complexe 35

X
u(t) = B [0 Ts ] (t kTs )cos (2f0 t + ak )
k
X
ue (t) = B ejak [0 Ts ] (t kTs ) :
k
- MAQ :

X X
u(t) = ak [0 Ts ](t kTs )cos (2f0 t) bk [0 Ts ] (t kTs )sin(2f0 t)
k k
X
ue (t) = (ak + jbk ) [0 Ts ] (t kTs ) = uc(t) + j us (t):
k
On constate que l’enveloppe complexe possède la même expression que celle d’un signal NRZ. En
général, l’enveloppe complexe n’a pas de réalité physique puisque c’est un signal complexe. Cependant,
cette représentation est très commode puisqu’elle permet de traiter des systèmes de transmission utilisant
une modulation exactement comme des systèmes en bande de base, la seule différence c’est que les
signaux sont complexes.
On notera que (4.10) ne définit pas de façon unique l’enveloppe complexe car ue (t) + u0e(t) est aussi
l’enveloppe de u (t) à condition que
n 0 o
Re ue (t) e2jf0 t = 0:
L’enveloppe complexe d’un signal u (t) est définie de manière rigoureuse par

ue (t) = [u(t) + j ub(t)] e 2jf0 t ; (4.11)

(t) est la transformée de Hilbert de u(t) définie par


où u
b

ub(t) = u(t)

1;
t (4.12)

où encore dans le domaine fréquentiel

Ub (f ) = j sgn(f ) U (f ): (4.13)

Soit ua (t) le signal analytique associé à u(t) :


8

Ua (f ) =
< 2 U (f ) si f > 0 (4.14)
: 0 sinon

En introduisant
36 Transmission sur onde porteuse sur un canal à bande illimitée

8
< U (f ) si f > 0
U + (f ) = ; (4.15)
: 0 sinon
on obtient

Ue (f ) = Ua (f + f0 ) = 2 U + (f + f0): (4.16)

Montrons maintenant que l’enveloppe complexe ainsi définie vérifie bien la définition initiale (4.10)
dans le domaine fréquentiel. La vérification dans le domaine temporel est immédiate.
Soit y (t) le signal défini par

y(t) = ue (t)e2jf0 t ;
où ue (t) est donné par (4.11). Alors

Y (f ) = Ue (f f0 ) = Ua (f ):
Or

Y (f ) + Y  ( f )
Ua (f ) + Ua ( f )
T F (Re fy(t)g) = = = U (f ) cqfd:
2 2
Dans la dernière égalité, on a utilisé le fait que u(t) est un signal réel : U ( f ) = U (f ):

4.2.2 Signaux déterministes à bande étroite

C’est une classe importante des signaux déterministes. Un signal à bande étroite est un signal dont la
transformée de Fourier est nulle sur une bande de fréquences [ B B ] où B > 0 :
8
>
>
<
X + (f ) si f  B
X (f ) = X (f ) si f  B :
>
>
:
0 sinon
Un signal de la forme m (t) cos (2f0 t) est à bande étroite si le spectre d’amplitude de m(t) est limité
à [ b b] avec b < f0 . Si b est proche de f0 , théoriquement c’est un signal à bande étroite mais en
électronique on le qualifiera de signal large bande. Ainsi les signaux issus des modulateurs numériques
sont à bande étroite si la fréquence de la porteuse est très supérieure au débit symbole.
On montre que tout signal à bande étroite peut être décomposé selon deux ondes porteuses en quadrature :

x(t) = xc(t) cos(2f0 t) xs (t) sin(2f0 t): (4.17)


4.2 Enveloppe complexe 37

Alors

Xc (f + f0 ) + Xc (f f0 ) Xs (f f0 ) Xs (f + f0 )
X (f ) = :
2 2j
On en déduit

X + (f ) =
1 [Xc(f f0 ) + jXs (f f0 )] :
2
L’enveloppe complexe est donc donnée par

Xe (f ) = 2 X + (f + f0)
= Xc(f ) + jXs (f ): (4.18)

Ainsi, les composantes en phase et en quadrature sont respectivement les parties réelle et imaginaire de
l’enveloppe complexe.
Propriété : Si X (f ) vérifie la condition de symétrie hermitienne autour de f0 alors Xs(f ) = 0.
Preuve :

xe (t) xe (t)
xs (t) = :
2j
d’où

Xe (f ) Xe ( f )
Xs (f ) = :
2j
Or

Xe (f ) = 2 X + (f + f0 ) ;
d’où

X + (f + f0 ) X + (f0 f )
Xs (f ) = = 0:
j

4.2.3 Signaux aléatoires à bande étroite : décomposition de Rayleigh

4.3.3.1 Définition

La définition de l’enveloppe complexe qu’on vient de voir s’applique aux signaux déterministes or
le signal d’information, le bruit et les interférences sont des signaux aléatoires. Un signal B (t) aléatoire
stationnaire au second ordre est à bande étroite si sa DSP est à bande étroite :
38 Transmission sur onde porteuse sur un canal à bande illimitée

B (f )= T F (RB ( )) = 0 8f 2 [ b b] ; (4.19)

RB ( ) = E (B (t)B (t  ) ) :

On montre que B (t) peut s’écrire

B (t) = Bc (t) cos(2f0 t) Bs(t) sin(2f0 t); (4.20)

(t) et Bs(t) sont des signaux aléatoires stationnaires au second ordre. Ce sont les composantes en
où Bc
phase et en quadrature de B (t). Cette représentation porte le nom de décomposition de Rayleigh.
L’enveloppe complexe de B (t) est définie par

Be (t) = Bc (t) + j Bs(t): (4.21)

Si B (t) est gaussien alors Bc (t) et Bs(t) sont aussi gaussiens car ils sont obtenus par transformation
linéaire et Be (t) est appelé bruit gaussien complexe. On montre que la DSP de Be (t) est donnée par

Be (f ) = 4 B+ (f + f0 ): (4.22)

On notera la similarité de ce résultat avec celui des signaux déterministes (4.16) hormis le coefficient 4
au lieu de 2. On montre également que l’enveloppe complexe vérifie la propriété suivante :

E (Be (t)Be (t +  )) = 0 8 . (4.23)

Propriétés :

Bc (f ) = Bs (f ) =
1
4 [ Be (f ) + Be ( f )] ; (4.24)

Bcs (f ) =
1
Bsc (f ) = [ Be ( f ) Be (f )] :
4j (4.25)

Preuve :
On a

Bc (t) =
1 [B (t) + B (t)] :
2 e e

En utilisant (4.23), on en déduit

RBc ( ) =
1 RB ( ) + R ( ) :
4 e Be
4.2 Enveloppe complexe 39

En suivant la même démarche, on obtient

RBc ( ) = RBs ( ) :
Par transformée de Fourier, on obtient (4.24).
De même, un simple calcul donne

RBcs ( ) = E (Bc(t)Bs (t  )) ;
= 41j [RBe ( ) RBe ( )] :

et

RBsc ( ) = RBcs ( ) :
On en déduit (4.25). Ainsi, les composantes en phase et en quadrature sont décorrélées lorsque Be est
paire c’est à dire si B est symétrique autour de f0 . En outre, les composantes en phase en quadrature
sont décorrélées si elles sont prises au même instant :

RBcs (0) =
1 Z

4j [ Be ( f ) Be (f )] df = 0:
4.3.3.2 Bruit blanc à bande étroite

Précisons d’abord qu’un bruit blanc n’est pas à bande étroite puisque sa DSP est une constante
indépendamment de la fréquence. Etant donné que le signal émis est à bande étroite, on peut considérer
qu’il y a à l’entrée du récepteur un filtre de gain unité dans la bande passante du signal et nul ailleurs.
Ainsi, le bruit blanc filtré aura la DSP suivante :
8

B (f ) =
< N0 si f
2 2 [f0 B=2 f0 + B=2] S [ f0 B=2 f0 + B=2] ; (4.26)
: 0 ailleurs
où B est la bande passante du signal utile.
Le bruit filtré ainsi obtenu est dit blanc à bande étroite.
Etant donné que B est symétrique autour de f0 , les composantes en phase et en quadrature sont décorrélées.
En outre, en utilisant (4.22), on obtient
8

Be (f ) =
< 2N0 si jf j  B=2 : (4.27)
: 0 ailleurs

En utilisant (4.24), on en déduit


40 Transmission sur onde porteuse sur un canal à bande illimitée

1
Bs (f ) = Bc (f ) = Be (f ):
2 (4.28)

La figure 4.1 illustre les spectres du bruit B (t), de la composante en phase Bc(t) et en quadrature Bs(t).

F IG . 4.1 – Spectre d’un bruit blanc à bande étroite et de ses composantes en phase et en quadrature.

4.3.3.3 Transformation de l’enveloppe complexe par filtrage

Nous cherchons l’équivalent de l’opération de filtrage en bande de base. Soit x (t) un signal à bande
étroite d’enveloppe complexe xe (t) et soit y (t) la convolution de x(t) par h(t). y (t) est aussi un signal à
bande étroite, le signal analytique correspondant est donné par

Ya (f ) = 2Y + (f ) = Xa (f ) H + (f ): (4.29)

On en déduit

Ye (f ) = Ya (f + f0 ) = Xe (f )Hb (f ); (4.30)

où Hb(f ) = H +(f + f0) est l’équivalent en bande de base de H (f ).


Si h(t) peut s’écrire

h(t) = hc (t)cos(2f0 t) hs (t) sin(2f0 t);


alors
4.2 Enveloppe complexe 41

Hb (f ) =
1 [Hc(f ) + jHs(f )] :
2 (4.31)

Ainsi, l’équivalent en bande de base d’un filtre est en général complexe sauf si H (f ) vérifie la condition
de symétrie hermitienne autour de f0 :

H + (f + f0 ) = H + (f0 f ):

On notera enfin que l’équivalent en bande de base d’un filtre est la moitié de son enveloppe complexe.
Dans le domaine temporel la relation de filtrage en bande de base s’écrit comme suit

y(t) = yc(t) + j ys (t) =


1
2 [hc(t) + jhs (t)]
[xc(t) + jxs (t)] ;
soit encore

8
< yc(t) = 21 (hc
xc )(t) 12 (hs
xs )(t)
: (4.32)
: ys(t) = 21 (hc
xs )(t) + 21 (hs
xc )(t)
Le filtrage des signaux modulés peut être effectué en filtrant l’enveloppe complexe par l’équivalent en
bande de base du filtre. Ceci permet donc de faciliter l’étude et la simulation de systèmes de transmission
en remplaçant des signaux réels à bande étroite par des signaux complexes en bande de base.
Concernant l’équivalent en bande de base du bruit filtré, on l’obtient en filtrant l’enveloppe complexe
Hb(f ). Si on considère un bruit blanc à bande étroite (4.26), la DSP de
du bruit à l’entrée du filtre par
l’équivalent en bande de base du bruit filtré vaut 2N0 jHb (f )j2 . On en déduit la DSP des composantes
en phase et en quadrature du bruit filtré

N h i
Bc (f ) = Bs (f ) = 0 jHb (f )j2 + jHb ( f )j2 ;
2
ainsi que la DSP de leur intercorrélation

N h i
Bcs (f ) = Bsc (f ) = 0 jHb ( f )j2 jHb(f )j2 :
2j
On en déduit que les composantes en phase et en quadrature sont décorrélées si elles sont prises au même
instant. Leurs variances vaut

Z
 2 = N0 jHb(f )j2 df:
42 Transmission sur onde porteuse sur un canal à bande illimitée

4.3 Démodulation

Nous consacrons cette partie à l’étude des divers schémas de démodulation pour un canal gaussien.
Nous commençons d’abord par décrire les démodulateurs cohérents c’est à dire ceux qui ont besoin de
connaı̂tre la porteuse. Puis, on présentera quelques exemples de démodulateurs non cohérents.

4.3.1 Démodulation cohérente de la MDP-2

Le signal émis est donné par

X
u(t) = A [0 Ts ] (t kTs )cos (2f0 t + k ) ; (4.33)
k
où
8

k = : 0 si ak = 1 :
<

0 +  si ak = 0
Le signal reçu est donné par

r(t) = u(t) + b(t);


où b (t) est un bruit blanc gaussien.
Le premier étage du récepteur est composé d’un filtre centré en f0 de largeur de bande 2B (celle du
signal utile). Ce filtre permet de ne garder que le signal utile. Ainsi, sans perte de généralité, le bruit b(t)
peut être considéré à bande étroite. D’après la décomposition de Rayleigh, on a

b(t) = bc (t)cos (2f0 t + 0 ) bs (t)sin (2f0 t + 0 ) :


Le démodulateur consiste d’abord à multiplier le signal reçu par la porteuse régénérée :

A0 A X
r(t)A0 cos (2f0 t + 0 ) = [0 Ts ] (t kTs )[cos (k 0 ) + cos (4f0 t + k + 0 )]
2 k
+ A20 bc(t) + A20 bc(t)cos (4f0 t + 20) A0
2 bs(t)sin (4f0t + 20 ) :
Or 1=Ts << f0, ainsi après filtrage passe bas on obtient
A AX A
y(t) = 0 ak [0 Ts ](t kTs ) + 0 bc(t):
2k
2 (4.34)

On obtient ainsi un signal en bande de base donc le reste du démodulateur est composé d’un filtre adapté
suivi d’un échantillonneur puis un comparateur à seuil (voir la figure 4.2). On notera que le filtre adapté
4.3 Démodulation 43

joue aussi le rôle de filtre passe bas permettant d’enlever les composantes autour de 2f0: Ce type de
démodulateur est dit cohérent car il nécessite la connaissance de la fréquence et de la phase de la porteuse
utilisée à l’émission.

F IG . 4.2 – Démodulation cohérente de la MDP-2.

4.3.2 Démodulation cohérente de la MDP et MAQ

La similarité de ces deux modulations a été déjà démontrée (voir l’équation (4.3)). Dans les deux cas,
le signal reçu peut s’écrire comme suit

X X
r(t) = A ak [0 Ts ] (t kTs ) cos(2f0 t + 0 ) A bk [0 Ts ] (t kTs ) sin(2f0 t + 0 )+ b(t);
k k
(4.35)
où ak et bk sont respectivement cos (k ) et sin (k ) pour une modulation MDP dont les états de la phase

sont k .
Le démodulateur comporte deux étages composés chacun d’une multiplication par la porteuse en phase,
A0 cos(2f0 t + 0 ), ou en quadrature, A0 sin(2f0 t + 0 ). La sortie du filtre adapté de l’étage de la
porteuse en phase est donné par

A AX A b (t)
yc(t) = 0 ak [0 Ts ] (t kTs ) + 0 c :
2 k
2 (4.36)

Au même niveau dans l’autre étage, on aura

A AX A b (t)
ys(t) = 0 bk [0 Ts ] (t kTs ) + 0 s :
2 k
2 (4.37)

On obtient ainsi un signal en bande de base et il suffit d’effectuer un filtrage adapté à (t), un échantillonnage
puis une comparaison à seuil pour obtenir sur chacun des deux étages une estimation des ak et bk . Les
figures 4.3 et 4.4 montrent respectivement le schéma principe du démodulateur cohérent de la MDP4 et
de la MAQ 16.
44 Transmission sur onde porteuse sur un canal à bande illimitée

F IG . 4.3 – Démodulation cohérente de la MDP-4.

4.3.3 Démodulation non cohérente d’un signal OOK

Le signal reçu pour une modulation tout ou rien est donné par

X
r(t) = A ak [0 Ts ] (t kTs ) cos(2f0 t + 0 ) + b(t); (4.38)
k
où ak 2 f0; 1g.
Il est possible de démoduler ce signal par un simple détecteur d’enveloppe :

X
r2 (t) = A2 a2k [0 Ts ] (t kTs ) cos2 (2f0 t + 0 ) + n(t);
k
où n(t) est un terme dû au bruit.
Après filtrage passe bas, on obtient

A2 X
y(t) = ak [0 Ts ] (t kTs ) + n0 (t):
k
2
Le reste de ce démodulateur est donc composé d’un filtre adapté, d’un échantillonneur et d’un compara-
teur à seuil.

4.3.4 Démodulation non cohérente de la MDP-2 différentielle

Dans ce type de modulation, l’information à transmettre est associée non plus à la valeur de la phase
mais plutôt à sa variation. Pour une MDP-2 différentielle, on peut par exemple utiliser le codage suivant
4.3 Démodulation 45

F IG . 4.4 – Démodulation cohérente de la MAQ-16.

8
< k = k 1 si ak = 1 : (4.39)
:  =
k k 1 +  si ak = 1
On en déduit

ak = cos (k k 1 ) : (4.40)

Considérons maintenant, en absence de bruit, le démodulateur représenté dans la figure 4.5. On a

X
S (t) = (
[0 Ts ] t kTs ) cos(2f0 t + 0 + k )cos(2f0 (t Ts ) + 0 + k 1 ):
k
Après filtrage adapté, on aura

s(t) =
1 X p(t kTs ) cos(2f0 Ts + k k 1);
2 k
où p = 
:
Ainsi si f0 Ts est entier, alors

s(t) =
1 X p(t kTs ) ak :
2 k
Le démodulateur proposé permet donc de se ramener en bande sans avoir besoin de régénérer la porteuse.
46 Transmission sur onde porteuse sur un canal à bande illimitée

F IG . 4.5 – Démodulation non cohérente de la MDP-2 différentielle

4.4 Performances des modulations numériques

4.4.1 Détection de deux symboles

On veut déterminer la probabilité d’erreur entre deux symboles. D’après la section précédente, la
variable de décision peut s’écrire comme suit

z = si + b; i = 1 ou 2:

où b= br + jbi est un bruit gaussien complexe de variance N0 ; br et bi sont respectivement les compo-
santes de b selon l’axe (s1 s2 ) et l’axe qui lui est orthogonal.
La figure 4.6 donne une illustration graphique du problème. Si les deux symboles sont équiprobables, la
décision se fait grâce à la médiatrice du segment s1 s2 : Ainsi, on a

Pes = P (sb = s2 = s1) p(s1) + P (sb = s1 = s2) p(s2)


= 21 P (br > d=2) + 12 P (br < d=2) = P (br > d=2)
0s 1
 
p1N exp Nx = Q @ 2dN A ;
Z +1 2 2
= (4.41)
d=2 0 0 0

où d = ks1!
s2 k.

4.4.2 Méthodologie

Il s’agit de déterminer l’expression théorique des probabilités d’erreurs symbole Pes et bit Peb des
différentes modulations numériques. On commence par déterminer Pes puis on en déduira Peb . En notant
sb la décision du récepteur, la probabilité d’erreur symbole est donnée par
4.4 Performances des modulations numériques 47

F IG . 4.6 – Détection de deux symboles.

M
X
Pes = P (sb 6= sj = sj émis) p(sj ): (4.42)
j =1
On utilise ensuite la borne de l’union :

X
P (sb 6= sj = sj émis)  P (sb = si = sj émis) :
i6=j
La figure 4.7 donne une illustration graphique de la borne de l’union. La probabilité d’erreur est la
probabilité que l’échantillon reçu se trouve à l’extérieur du losange défini par les 4 médiatrices. Alors
que la probabilité d’erreur par couple est la probabilité que l’échantillon reçu se trouve de l’autre coté de
la médiatrice. En faisant la somme des régions des symboles s1 à s4 , on constate qu’il y a des régions
qu’on comptabilise deux fois. Il est à noter enfin que la borne d’union est fine à fort RSB (Rapport Signal
à Bruit).
Si on comptabilise uniquement les erreurs entre symboles voisins, on obtient

M X
X
Pes  P (sb = si = sj émis) p(sj ); (4.43)
j =1 i2V (j )
où V (j ) est le voisinage immédiat de sj . Il est à noter que la borne (4.43) est fine à fort RSB. On dit que
(4.43) donne le comportement asymptotique de Pes .
En général, les symboles de la constellation sont équiprobables et uniformément espacés d’une distance
euclidienne d. On en déduit
0s 1

Pes 
1 M
X
N (j )Q @
d2 A;
M j =1 2N0 (4.44)

où N (j ) est le nombre de voisins immédiats de sj .


48 Transmission sur onde porteuse sur un canal à bande illimitée

F IG . 4.7 – Illustration graphique de la borne de l’union.

Si on utilise un codage de Gray, les étiquettes binaires des symboles immédiatement voisins de la constel-
lation ne diffèrent que par un seul bit. Ainsi, à fort Rapport Signal à Bruit (RSB), lorsque les erreurs les
plus fréquentes se produisent entre les symboles immédiatement voisins, une erreur symbole entraı̂ne un
seul bit faux sur log2 (M ) d’où
Pes
Peb  :
log2 (M )
(4.45)

4.4.3 Performances de la MDA- M


Nous utilisons la constellation suivante :

f (M 1) A; (M 3)A;    ; A; A;    ; (M 1)Ag :
On a d = 2A et (4.44) donne
0s 1

 2(M 2) + 2 Q @ 2A A :
2
Pes
M N0
On doit maintenant exprimer ce résultat en fonction de Eb :
Si le filtre de mise en forme possède une énergie égale à 1, l’énergie moyenne dépensée par symbole vaut

M=2 1

Es = E a2k =
2 X
A2 (2i + 1)2 :
M i=0
4.4 Performances des modulations numériques 49

En utilisant

M
X
i2 =
1 M 3 + 3 M 2 + M  ;
i=0
3 2 2
On obtient

Es =
A2 M 2 1 ;
3 (4.46)

d’où

A2 M 2 1
Eb =
3log2 (M ) :
Enfin, on aboutit à
0s 1

Pes 
2(M 1) Q @ 2Eb 3 log2(M ) A :
N0 M 2 1
(4.47)
M
Pour M = 2, on retrouve le résultat du chapitre 3 (3.14). Lorsque M augmente; logM (M1) diminue et 2
2

Pes augmente. Ainsi, augmenter la taille de la constellation permet d’augmenter le débit binaire (2.5)
mais la probabilité d’erreur augmente car les symboles de la constellation sont plus proches. Le terme
 
10 M2 1
log10 3 log 2 (M )
donne la perte asymptotique en dB d’une modulation MDA-M par rapport à la
MDA-2. Cette perte vaut 0, 3.98, 8.45 et 13.25 dB respectivement pour M ; ; 8 et 16. La figure 4.8 =2 4
montre l’évolution de la probabilité d’erreur binaire des modulations MDA-2, 4, 8 et 16 en fonction de
Eb =N0 .
0
10

−1
10

−2
10
MDA−2
MDA−4
MDA−8
MDA−16
Peb

−3
10

−4
10

−5
10

−6
10
0 1 2 3 4 5 6 7 8 9 10
E /N (dB)
b 0

F IG . 4.8 – Probabilité d’erreur binaire théorique de la modulation MDA.


50 Transmission sur onde porteuse sur un canal à bande illimitée

4.4.4 Performances de la MDP- M


Si les symboles sont équirépartis sur un cercle de rayon A, on obtient aisément


d2 = 4A2 sin2
 :
M
L’énergie moyenne dépensée par bit vaut

A2
Eb =
log2 (M )
En remarquant que chaque symbole possède deux voisins pour M > 2 et en utilisant (4.44), on obtient
s !
Pes  2Q
2Eb log2(M )sin2    ; 8M > 2: (4.48)
N 0 M

La perte en dB d’une MDP-M par rapport à une MDA-2 vaut donc 10log10 log2 (M )sin2 M . Elle
vaut 0, 0, 3.57 et 8.17 dB respectivement pour M = 2; 4; 8 et 16. La figure 4.9 montre l’évolution de la
probabilité d’erreur binaire des modulations MDP-2, 4, 8 et 16 en fonction de Eb =N0 .
0
10
MDP−4
MDP−8
MDP−16
−1
10

−2
10
Peb

−3
10

−4
10

−5
10

−6
10
0 1 2 3 4 5 6 7 8 9 10
E /N (dB)
b 0

F IG . 4.9 – Probabilité d’erreur binaire théorique de la modulation MDP.

4.4.5 Performances de la MAQ- M


p
En remarquant que la partie réelle et imaginaire des symboles émis appartiennent à une MDA- M,
on a (4.46)

Es =
2A2 (M 1) :
3 (4.49)
4.4 Performances des modulations numériques 51

Or d2 = 4A2 et en utilisant (4.44) on obtient


 p   p 2 s
42+4 M 2 3+ M 2 2 2Eb 3 log2 (M )
!
Pes  Q :
M N0 2(M 1)
Soit encore

  s !
Pes  4 1 p1 Q
2Eb 3 log2 (M ) :
N0 2(M 1)
(4.50)
M
 
La perte en dB d’une MAQ-M par rapport à une MDA-2 vaut donc 10log10 32(log M 1) . Elle vaut 0,
(M ) 2

3.98, 8.45 et 13.27 dB respectivement pour M = 4; 16, 64 et 256. La figure 4.10 illustre l’évolution de
la probabilité d’erreur binaire des modulations MAQ-4, 16 et 256 en fonction de Eb =N0 .
On peut retrouver (4.50) d’une autre manière en utilisant les résultats de la MDA-M . Un symbole
MAQ est correctement reçu si sa partie réelle et imaginaire sont correctes. Ainsi

 p  p
1 PesMAQ M = 1 PesMDA M 2 t 1 2PesMDA M:

d’où

p
PesMAQ M t 2 PesMDA M:

En utilisant (4.47), on retrouve (4.50).


0
10

−1
10

−2
10
Peb

−3 MAQ−4
10
MAQ−16
MAQ−64
MAQ−256

−4
10

−5
10

−6
10
0 1 2 3 4 5 6 7 8 9 10
E /N (dB)
b 0

F IG . 4.10 – Probabilité d’erreur binaire théorique de la modulation MAQ.


52 Transmission sur onde porteuse sur un canal à bande illimitée

4.5 TD 3 : Schémas de démodulation

Problème 1 : Modulation MDP différentielle

On se propose d’étudier le démodulateur non cohérent de la Modulation à Déplacement de Phase (MDP)



différentielle. Cette modulation consiste à changer la phase de la porteuse, k , en fonction du symbole
sk à transmettre : k k 1 = f (sk ) où f est une bijection et 0 = 0. Le signal transmis est donné par
X
u(t) = (
 t kTs ) cos (2 + +  )
f0 t 0 k ; (4.51)
k
où f0 et 0 sont respectivement la fréquence et la phase de la porteuse utilisée à l’émission,
8
< p1T si t 2 [ T2s T2s [
(t) = s :
: 0 sinon
La figure 4.11 montre le schéma principe du démodulateur non cohérent de la MDP différentielle. Le
signal à l’entrée du récepteur est donné par

r(t) = u(t) + B (t); (4.52)

où B (t) est un bruit blanc à bande étroite dont la densité spectrale de puissance est égale à N2 0
sur une
bande fréquentielle finie autour de f0 et f0 et nulle ailleurs.

1. Exprimer B (t) en fonction de ses composantes en phase et en quadrature.


2. Donner les expressions explicites des signaux zc (t) et zs (t) (voir la figure 4.11) à la sortie du filtre
passe bas.
3. En raisonnant dans le domaine temporel, montrer que  (t) vérifie bien le critère de Nyquist .
(n) et as(n) (voir la figure 4.11).
4. En déduire les expressions de ac
5. Expliquer comment peut-on estimer sn à partir de ac (n), ac (n 1), as (n) et as (n 1).
6. Donner l’intérêt du démodulateur étudié.
4.5 TD 3 : Schémas de démodulation 53

F IG . 4.11 – Schéma principe du démodulateur non cohérent de la MDP différentielle.

Problème 2 : Etude de la modulation MAQ-16

On considère une modulation MAQ-16 définie par :


– Symboles transmis : dk = ak + jbk où ak ; bk 2 fA; 3Ag.
– Les symboles transmis sont supposés indépendants et identiquement distribués.
– Filtre de mise en forme : g (t) = p1Ts si t 2 [0; Ts ], g(t) = 0 ailleurs.
– On notera f0 la fréquence de la porteuse.

1. Donner l’expression du signal émis et celle de son enveloppe complexe.

2. Dessiner sur un même graphique la constellation, les régions de décision et les étiquettes binaires
des symboles selon le codage de Gray.

3. Déterminer l’énergie moyenne transmise par symbole et par bit.

4. Déterminer l’expression de la probabilité d’erreur symbole.

5. En déduire la probabilité d’erreur binaire.

6. Rappeler les limites de validité de ces deux derniers résultats.

7. Comparer la MAQ-16 à la MDP-4.


54 Transmission sur onde porteuse sur un canal à bande illimitée

Problème 3 : Modulation MDP-2 avec erreur de phase à la réception


On considère le signal modulé à bande étroite en MDP-2 sur onde porteuse :

u(t) = uc (t)cos (2f0 t + 0 ) (4.53)

où X
uc (t) = ak h (t kT ) (4.54)
k
f0 et 0 désignent respectivement la fréquence porteuse et la phase de la porteuse, les fak g désignent une
suite de symboles binaires prenant de manière équiprobable leurs valeurs dans l’alphabet f d; +dg et
h(t) représente, dans toute la suite, un filtre en racine de Nyquist à bande limitée pour le rythme symbole
R = T1 .
Le signal reçu se met sous la forme :

x(t) = u(t) + B (t) (4.55)

(t) est un “bruit blanc à bande étroite” dont la densité spectrale de puissance est égale N2 sur une
où B 0

bande de largeur finie autour des fréquences f0 et f0 et nulle ailleurs. Le bruit B (t) se décompose sous
la forme :

B (t) = Bc (t)cos (2f0 t + 0 ) Bs (t)sin(2f0 t + 0 ) (4.56)

Les composantes en phase Bc (t) et en quadrature Bs (t) sont supposées gaussiennes, décorrélées et de
densité spectrale de puissance commune N0 .
La structure du récepteur pour la MDP2 est représentée dans la figure suivante

x(t)- k !(t)- Filtre


- h (t0 t) - ak
b
-
6 ! (t) t0 + kT
Décision
Passe-bas 1

A0 cos (2f0 t + 0 )

On suppose que le récepteur possède une estimation erronée 0 de la phase initiale 0 de la porteuse.
Le signal reçu x(t) est alors multiplié par une onde porteuse sinusoı̈dale A0 cos (2f0t + 0 ) issue d’un
oscillateur local. Dans toute la suite, '0 = 0 0 représente l’erreur d’estimation de phase au niveau
du récepteur.
4.5 TD 3 : Schémas de démodulation 55

1. (a) Expliciter le signal !(t), produit du signal reçu x(t) et de la porteuse A0 cos (2f0 t + 0 ),
sous la forme :

!(t) = !1 (t) + !2 (t) (4.57)

(t) et !2(t) sont des signaux à bande limitée dont les spectres sont localisés respecti-
où !1
vement autour de 0 et de 2f0 .

(b) Donner les expressions explicites de !1 (t) et !2 (t).

2. On suppose qu’un filtrage passe-bas supprime pratiquement !2 (t) et n’altère pas !1 (t).

(a) Mettre le signal !1 (t) en sortie du filtre passe-bas sous la forme :

A
!1 (t) = 0 ( uc (t) + Bc (t) + Bs (t))
2 (4.58)

(b) Donner les expressions explicites des facteurs multiplicatifs , et en fonction de l’erreur
de phase '0 .

3. Montrer que le terme de bruit b(t) = Bc(t) + Bs(t) possède une DSP égale à N0 dans une
bande finie autour de f = 0.
4. Avec le signal filtré !1 (t) on se ramène à un signal modulé numériquement en bande de base en
présence d’un bruit blanc gaussien. On a vu que le récepteur qui minimise la probabilité d’erreur
(
est constitué par le filtre h t0 t) adapté au signal h(t), suivi d’un comparateur à seuil.
(a) Exprimer la probabilité d’erreur binaire (identique à la probabilité d’erreur sur les symboles
pour une modulation MDP-2) sous la forme :

r !
1
Pe = erfc 
P
2 N0 D
(4.59)

où P est la puissance reçue utile (puissance du signal utile u (t)) et D = R = T1 est le débit
binaire. Indication : s’inspirer de l’expression de la probabilité d’erreur en l’absence d’erreur
de phase au niveau du récepteur.

(b) Donner la valeur explicite de la dégradation 10log10  occasionnée par une erreur sur la
phase initiale par rapport à une démodulation parfaite (sans erreur sur la phase initiale) en
fonction de l’erreur de phase '0 .

(c) Déterminer l’erreur de phase correspondant à la probabilité d’erreur maximale de 0.5 et in-
terpréter.

Вам также может понравиться