Вы находитесь на странице: 1из 61

Compression d'impulsion

Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

La compression d'impulsion (en anglais, pulse compression) est une technique de traitement
du signal utilisée principalement dans le domaine du radar, du sonar et en échographie afin
d'augmenter la résolution en distance de la mesure ainsi que le rapport signal sur bruit, par
modulation du signal émis[1].

Dans la suite de notre développement, l'application sera le radar mais le lecteur pourra
aisément généraliser aux autres applications, la théorie restant la même.

Sommaire
[masquer]

• 1 Impulsion simple
o 1.1 Forme du signal
o 1.2 Résolution en distance
o 1.3 Énergie à fournir pour émettre ce signal
• 2 Compression d'impulsion par modulation linéaire de fréquence
o 2.1 Principe général
o 2.2 Intercorrélation entre le signal émis et le signal reçu
o 2.3 Augmentation du rapport signal à bruit par compression d'impulsion
• 3 Compression d'impulsion par codage de phase

• 4 Notes

Impulsion simple [modifier]


Forme du signal [modifier]

Le signal le plus simple que peut émettre un radar à impulsions est un train de signaux
sinusoïdaux, d'amplitude A et de fréquence f0, tronqué par une fonction porte de longueur T,
se répétant identiquement à eux-mêmes à une certaine période qui nous intéresse peu ici. On
considère ici une seule impulsion s. A supposer que cette impulsion est émise à la date t = 0,
le signal s'écrit analytiquement de la manière suivante, en notation complexe :

Résolution en distance [modifier]

Déterminons la résolution en distance que l'on peut obtenir avec ce type de signal. Le signal
qui revient vers le radar, noté r(t) est une copie retardée et atténuée du signal émis (en réalité
elle peut aussi être légèrement déphasée par effet Doppler, mais on laisse cela de côté pour le
moment). Il y a également du bruit sur les deux voies réelles et imaginaires, que l'on va
prendre comme étant blanc et gaussien (ce qui est généralement vrai dans la réalité); on note
B(t) ce bruit. Pour détecter le signal reçu, on va utiliser le filtrage adapté, qui optimise le
rapport de signal à bruit lorsque l'on veut détecter un signal connu dans du bruit blanc
gaussien.

Concrètement, on calcule l'intercorrélation du signal reçu avec le signal émis (ce qui revient à
la convolution avec le signal conjugué et temporellement retourné dans le temps). Cette
opération peut se faire également de manière électronique. Soit < s,r > (t) cette
intercorrélation. On a :

Supposons que le signal réfléchi revient à la date tr et est atténué d'un facteur K, on a :

Connaissant l'expression du signal émis, il vient après un calcul très simple :

où B'(t), résultat de l'intercorrélation du bruit avec le signal émis, reste un bruit blanc gaussien
de même variance que B(t) car il n'est pas corrélé avec le signal émis. La fonction Λ est la
fonction triangle, valant 0 sur , croissant linéairement de -1/2
à 0 où elle atteint la valeur 1, et décroissant linéairement de 0 à 1/2 pour valoir de nouveau 0.
Les figures au bout de ce paragraphe montrent un exemple pour un signal émis réel en sinus,
de durée T = 1 seconde, d'amplitude unité, et de fréquence f0 = 10 hertz (en rouge). On laisse
figurer deux échos (en bleu) décalés de 3 et 5 secondes, respectivement, et d'amplitudes 0,5 et
0,3. L'autocorrélation du signal émis a bien une enveloppe en triangle (vu que le signal est
réel, l'intercorrélation est pondérée par un facteur 1/2 supplémentaire).

Si deux impulsions reviennent, l'intercorrélation vaudra la somme des deux intercorélations


des deux signaux élémentaires. Pour reconnaître l'enveloppe "triangle" d'une impulsion de
l'autre enveloppe "triangle", on voit que les temps d'arrivée de ceux-ci doivent être séparés
d'au moins T afin de pouvoir distinguer le sommet de l'un du sommet de l'autre. Si le temps
d'arrivée est séparé de moins de T, les deux triangles seront combinés et impossibles à
séparer.

Sachant que la distance parcourue de l'onde durant T est c.T, mais que cette distance est un
trajet aller-retour, on en conclut que :

Résultat 1

La résolution en distance atteignable avec une impulsion sinusoïdale est où T est la durée
de l'impulsion et c la célérité de l'onde.

Conclusion logique: pour augmenter la résolution, il faut diminuer la durée de l'impulsion.

Démonstration (impulsion simple): signal émis en rouge (fréquence 10 hertz, amplitude


1, durée 1 seconde) et deux échos atténués (en bleu).
Avant filtrage adapté Après filtrage adapté

Impulsion simple et cibles écartées... ...les échos sont distinguables.

Impulsion simple et cibles trop proches... ...les échos sont confondus.

Énergie à fournir pour émettre ce signal [modifier]

La puissance instantanée du signal émis est égale à P(t) = | s | 2(t). L'énergie fournie est égale
à:

D'une manière similaire, l'énergie du signal reçu vaut Er = K2A2T. Si σ est l'écart-type de
l'amplitude du bruit, le rapport signal à bruit à la réception est égal à :
On voit que le rapport signal à bruit augmente avec la longueur de l'impulsion, tous autres
paramètres restant égaux par ailleurs. La conclusion est que pour que le signal reçu puisse
rester exploitable, l'impulsion émise doit rester suffisamment longue, ce qui va à l'encontre du
pouvoir de résolution.

Compression d'impulsion par modulation linéaire de


fréquence [modifier]
Principe général [modifier]

Comment avoir une impulsion longue (afin de conserver une bonne énergie à la réception)
sans pour autant avoir une résolution trop mauvaise ? Tel est le but de la compression
d'impulsion. Son principe est le suivant :

• on génère un signal dont le support temporel est relativement long pour ménager le
budget énergie
• on forge ce signal de telle manière à ce qu'après filtrage adapté, la largeur de
l'intercorrélation entre le signal reçu et le signal émis est inférieure à celle obtenue
avec la simple modulation sinusoïdale, comme exposé ci-dessus.

Dans les applications radar ou sonar, le chirp linéaire est souvent le signal utilisé pour réaliser
la compression d'impulsion. L'impulsion étant de durée finie, l'amplitude est une fonction
porte. Si le signal est de durée T, débute à t = 0 et balaie la bande Δf centrée sur f0, ce signal
s'écrit :

Intercorrélation entre le signal émis et le signal reçu [modifier]

Comme pour l'impulsion "simple", calculons à présent la fonction d'intercorrélation entre le


signal émis et le signal reçu. Pour simplifier le calcul, on considère de plus que le chirp s'écrit
non pas comme ci-dessus, mais sous la forme simplifiée suivante (le résultat final restera le
même) :

Étant donné que cette intercorrélation est égale, à une translation et à une atténuation d'un
facteur K près, à l'autocorrélation de sc', c'est celle-ci que l'on considère :
On montre[2] que la fonction d'autocorrélation de sc' vaut :

Le maximum de la fonction d'autocorrélation de sc' est atteint en 0 et autour de ce point, elle se


comporte comme le terme en sinus cardinal. La largeur temporelle de de ce sinus cardinal à -3

dB est plus ou moins égale à . Tout se passe donc comme si après compression
d'impulsion, on avait la résolution d'une impulsion simple de durée T' qui, pour les choix
courants de Δf, est plus petite que T, ce qui justifie le nom de compression d'impulsion.

Dans la mesure où le sinus cardinal peut avoir des lobes secondaires importants, il est d'usage
d'apodiser le signal par convolution du résultat du filtrage adapté avec une fenêtre de type
Hamming ou Hann (en pratique, cette étape peut se faire en même temps que le filtrage adapté
en multipliant le chirp de référence par la fenêtre avant corrélation). Le résultat de
l'apodisation se traduit par une perte de l'amplitude maximale du signal détecté mais les lobes
secondaires sont beaucoup plus atténués.

Résultat 2

La résolution en distance atteignable avec un chirp linéaire modulé sur une bande Δf est:
où c la célérité de l'onde
Définition
Le rapport T / T' = TΔf est le rapport de compression, il est généralement supérieur à 1 (de
l'ordre de 20 à 30).
Démonstration (impulsion chirpée): signal émis en rouge (fréquence porteuse 10 hertz,
modulation sur 16 hertz, amplitude 1, durée 1 seconde) et deux échos atténués (en bleu).

Après filtrage adapté: les échos sont plus


Avant filtrage adapté
courts.

Augmentation du rapport signal à bruit par compression d'impulsion [modifier]


L'énergie du signal n'a pas varié pendant la compression d'impulsion. Toutefois, elle se trouve

à présent localisée dans le pic principal du sinus cardinal, qui a une largeur . Si P
est la puissance du signal avant compression et P' la puissance du signal après compression,
on a donc :

ce qui donne :

D'autre part, le bruit et le signal émis n'étant pas corrélés, la puissance du bruit ne change pas
par filtrage adapté. Par conséquent :

Résultat 3
La compression d'impulsion permet d'augmenter le gain en puissance après filtrage d'un
rapport égal au taux de compression, T.Δf
Démonstration: même signaux que plus haut, plus bruit additif blanc gaussien (σ = 0.5)

Avant filtrage adapté: le signal est noyé dans le Après filtrage adapté: les échos sont encore
bruit visibles.

Compression d'impulsion par codage de phase [modifier]


Il n'est pas nécessaire de moduler le signal émis par un chirp, d'autres formes de modulation
peuvent être utilisées. On utilise couramment la modulation de phase ; dans ce cas,
l'impulsion est divisée en N blocs de durée T/N pour lequel on choisit la phase à l'origine
selon un code préétabli. Par exemple, il est possible d'affecter à certain blocs un déphasage de
zéro (ce qui revient à conserver ces blocs tels quels) et de déphaser les autres de π (ce qui
revient à changer leur signe). Le choix précis de la séquence des déphasages pris dans {0,π}
se fait selon une technique appelée codage de Barker. Il est également possible de coder le
signal sur un alphabet de plus de deux phases (codage polyphase). Comme dans le cas du
chirp linéaire, il suffit de réaliser une corrélation entre le signal émis et le signal reçu pour
avoir le signal compressé.
Les avantages[3] de cette méthode sont la simplicité de mise en œuvre (comme indiqué plus
haut, un déphasage de π est un simple changement de signe), mais le taux de compression est
plus faible que pour un chirp et la compression peut être sensible à un éventuel décalage de
fréquence des signaux reçus par effet Doppler si ce décalage est plus grand que 1/T.

Notes [modifier]
1. ↑ J. R. Klauder, A. C, Price, S. Darlington and W. J. Albersheim, ‘The Theory and Design of Chirp
Radars,” Bell System Technical Journal 39, 745 (1960).
2. ↑ Achim Hein, Processing of SAR Data: Fundamentals, Signal Processing, Interferometry, Springer,
2004 (ISBN 3-540-05043-4), p. 38 à 44.

Démonstration très rigoureuse de l'autocorrélation du signal chirp et de ses propriétés. Noter que l'auteur divise son
autocorrélation par deux, ce que nous ne faisons pas ici.

3. ↑ J.-P. Hardange, P. Lacomme, J.-C. Marchais, Radars aéroportés et spatiaux, Masson, Paris, 1995
(ISBN 2-225-84802-5), p. 104

Chirp

Le Wiktionnaire possède une entrée pour


« chirp ».

Un chirp (mot d'origine anglaise signifiant « gazouillis ») est par définition[1] un signal
pseudo-périodique c modulé en fréquence autour d'une fréquence porteuse et également
modulée en amplitude par une enveloppe a dont les variations sont lentes par rapport aux
oscillations de la phase φ:

c(t) = a(t)eiφ(t)

La partie réelle de ce signal est tout simplement:

c(t) = a(t)cosφ(t)

Cas particulier du chirp linéaire


On considère souvent le cas particulier du chirp à rampe de fréquence linéaire et à enveloppe
constante A qui est tellement courant d'utilisation que l'on a tendance à ramener la notion de
chirp à ce seul cas particulier:

c(t) = Aei(a.t + b).t + c

Dans les applications radar ou sonar le chirp linéaire est souvent le signal utilisé pour réaliser
la compression d'impulsion. L'impulsion étant de durée finie, l'amplitude est une fonction
porte. Si le signal est de durée T, débute à t = 0 et balaie la bande de fréquence Δf centrée sur
f0, ce signal s'écrit:

(mais il n'est pas interdit d'utiliser un signal différent)

On montre[2] que si alors l'amplitude du spectre du chirp linéaire est bien


approximée par:

et presque 0 ailleurs.

Exemple de chirp

  Chirp linéaire (5 répétitions) écouter


Exemple acoustique:
Le chirp dans la nature
Le chirp dans sa forme la plus générale donne une bonne modélisation du chant des oiseaux
(d'où le nom anglais), des vocalises de cétacés. Les signaux émis par les dauphins et les
chauve-souris pour réaliser de l'écho-localisation sont également des chirps, mais beaucoup
plus complexes que ceux utilisés par l'Homme en sonar et en radar.

Application en radar et sonar


Voir l'article Compression d'impulsion. La notion de chirp revient également dans le cadre du
radar ou sonar à antenne synthétique.

Application en neuroscience
Le chirp peut être utilisé pour tester les propriétés de résonance d'un système. L'avantage
principal étant que l'on peut voir approximativement la fréquence de résonance du système
avant même d'analyser la réponse au signal par une transformée de Fourier.

En particulier, certains neurones ont une fréquence intrinsèque entre 4 et 8Hz.

Lecture suggérée:

• Hutcheon B et Yarom Y, "Resonance, oscillation and the intrinsic frequency


preferences of neurons" ; Trends Neurosci. 2000 May;23(5):216-22.

Terminologie francophone
Le praticien radar ou sonar utilisera volontiers le terme de chirp même en français, et des
néologismes tels que le verbe chirper sont fréquemment entendus dans le milieu. Etant donné
que le chirp usuel n'est qu'une impulsion modulée en rampe de fréquence, cette dernière
expression est également utilisée. Il ne faut pas confondre, par contre, chirp et compression
d'impulsion (en anglais: pulse compression) dans la mesure où le premier terme est l'outil et le
second une application.

1 L'image radar brute

1.1 Le radar
1.1.1 Principes de l'émission
1.1.1.1 L'antenne radar

Figure -1 : Antenne de type ouverture plane rectangulaire

Un conducteur parcouru par un courant électrique alternatif produit un champ


électromagnétique qui rayonne dans l'espace environnant. Ainsi, un ensemble de conducteurs
élémentaires, traversé par des courants variables puissants forme une antenne radio émettrice.
Selon l'agencement de ses conducteurs élémentaires, une antenne peut être plus ou moins
directive. L'antenne radar exploite les propriétés des ouvertures planes rectangulaires.

Considérons une ouverture plane rectangulaire de dimensions . Elle est traversée par

un courant qui permet de maintenir un champ électrique sinusoïdal (Figure 1-


1 ). L'expression fort complexe du champ produit à grande distance se simplifie lorsque nous
nous plaçons dans le plan (xOz) pour prendre la forme :

Équation -1

Figure -2 : Exemple de puissance rayonnée par une antenne radar

La puissance du champ rayonné (caractérisé par un nombre d'onde k0 et une pulsation ω ) à


une distance r de l'antenne varie donc comme le carré d'un sinus cardinal en fonction de θ
(Figure 1-2 ).
On définit alors l'ouverture ∆ θ de l'antenne comme étant la largeur du lobe principal à
-3dB c'est à dire pour le module d'un sinus cardinal, la moitié de la largeur totale:

Équation -2

Les résultats auraient été similaires dans un autre plan.

Figure -3 : Projection du diagramme d'antenne au sol

La directivité de l'antenne est donc d'autant plus forte que la longueur d'onde est petite ou que
la taille de l'antenne est grande dans le plan étudié. Une antenne très longue produira donc un
faisceau radar très pincé dans cette direction mais en contrepartie, très ouvert dans le plan
orthogonal (figure 1-3 ) La dynamique du diagramme d'antenne est telle que les contributions
des lobes secondaires sont en général négligées.

1.1.1.2 Fréquences radar

Quelles que soient les spécificités du radar (modulation de fréquence ou non, ...), le train
d'onde produit est caractérisé par la fréquence de la porteuse. Compte tenu de l'équation 1-2,
les ondes hyperfréquences ou micro-ondes autorisent la réalisation d'antennes de directivités
intéressantes.

Les fréquences radar partagent les bandes UHF[1] et SHF[2] avec d'autres applications
industrielles : télévision, four à micro-onde, télécommunications, ... (Figure 1-4 ). Ce domaine
fréquentiel est subdivisé en 7 bandes, dont les plus utilisées en radar sont les bandes C, L pour
les systèmes spatiaux, et X, C , L pour les systèmes aéroportés (Tableau 1-1 : Bandes radar).

Figure -4 : Domaine fréquentiel radar


SHF UHF
Bande spectrale Ka Ku X C S L P
Longueur d'onde (cm) 1 2 3,1 5,6 9,6 23 68
Fréquence (GHz) 35 14 9,6 5,3 3,0 1,3 0,44

Tableau -1 : Bandes radar

1.1.2 Principes de l'interaction

1.1.2.1 Spécificités du radar

Les propriétés du radar se différencient de celles des systèmes optiques, particulièrement au


moment de l'interaction de l'onde avec une cible :

• La source " d'éclairement " est le radar lui-même :

⇒ Conditions d'illumination (intensité, angles), indépendantes du moment : heure du jour,


saison, ...

⇒ La source est unique et totalement cohérente : des phénomènes d'interférence sont donc
possibles

⇒ L'antenne a des directions privilégiées et produit donc une onde polarisée.

• Les longueurs d'onde sont considérablement plus grandes que celles du domaine
visible :

⇒ L'onde est très peu sensible à l'état des couches atmosphériques traversées (nuages,
humidité, température) : possibilité de travailler par tous temps.

⇒ Les plus grandes longueurs d'ondes sont susceptibles de traverser ou pénétrer certaines
couches de surface : forêts, sable sec, ...

⇒ La part d'énergie renvoyée est inhérente de la pente et la rugosité : la réflexion est très
importante, et des réflexions multiples sont possibles.

⇒ Les propriétés diélectriques de la cible dimensionnent fortement le pouvoir réflecteur :


L'eau, et les objets métalliques sont particulièrement réfléchissants.
• Le récepteur est le radar lui-même :

⇒ La direction d'observation est généralement celle de la rétrodiffusion. Le radar est alors


qualifié de mono-statique, mais il existe des radars bi-statique.

⇒ L'antenne est sensible à une direction particulière de polarisation.

Toutes ces caractéristiques en font un instrument complémentaire des dispositifs optiques


(fonctionnel par tous temps), et particulièrement adapté aux applications militaires, à l'étude
du relief et de la géologie, et bien entendu à la cartographie.

1.1.2.2 Interactions de trajet

Compte tenu des spécificités énoncées précédemment, l'onde traverse l'atmosphère sans trop
d'altérations :

• L'état de l'atmosphère influe sur la longueur du trajet optique (quelques centimètres).


La phase de l'onde peut donc se décaler selon les conditions météorologiques.
• L'onde est sensible aux champs magnétiques et peut donc être déviée de son trajet
rectiligne, lorsque l'atmosphère est ionisée (orages, aurores boréales).
• Toutefois l'amplitude de l'onde reste relativement inchangée. La sensibilité ne devient
notable qu'aux faibles longueurs d'onde (Bandes Ka, Ku), car elles sont alors du même
ordre de grandeur que la taille des particules en suspension dans l'air.

Seules les modifications de phases sont donc susceptibles d'avoir des conséquences notables,
comme cela sera explicité dans la section 3.2 de la page 49.

1.1.2.3 Interactions avec la cible


Propriétés

Figure -5 : Interférences constructives et destructives

Outre les propriétés diélectriques, la pénétrabilité de la couche de surface, quatre points


essentiels sont à considérés :
• La pente du terrain : du fait du caractère généralement très réfléchissant des surfaces,
et des circonstances d'observation (toujours dans la direction de rétrodiffusion), les
zones de terrain orientées perpendiculairement à la direction de propagation
produisent des échos radar de forte puissance.
• En outre, l'écho renvoyé par une zone est la somme des échos renvoyés par ses
éléments de surface élémentaires (Figure 1-5 ). Or, pour deux zones de terrains de
même nature, leur disposition est stochastique. Subséquemment, les ondes réfléchies
s'additionnent ou se soustraient, affectant à l'amplitude de l'écho total renvoyé, les
spécificités d'un signal aléatoire.

L'amplitude U du signal retourné est caractérisée par une distribution de Rayleigh :

, ,

Ce phénomène est à l'origine du phénomène appelé speckle ou chatoiement.

• Egalement, le pouvoir particulièrement réfléchissant des surfaces a pour effet de


produire des échos fantômes dus à des réflexions multiples, et de rendre les angles
droits très rétrodiffusants (Voir un peu plus loin).
• Une cible en mouvement a pour effet de décaler la fréquence de l'onde retournée. C'est
le décalage Doppler. Ce phénomène peut être perçu de deux manières différentes, soit
comme une modification de la fréquence, soit comme un déphasage. Cet effet sera
plus amplement détaillé dans la section 2.1.1.2.

avec

où est la vitesse relative de la cible par rapport à l'antenne, et le rayon vecteur les reliant.

Coins réflecteurs

Figure -6 : Coin réflecteur

Nous savons que l'onde radar est particulièrement sensible à la géométrie de la surface, ainsi
un coin réflecteur constitue un objet extrêmement rétrodiffusant. Comme l'indique la figure 1-
6, quel que soit l'angle d'incidence de l'onde, toute l'énergie est rétrodiffusée, exceptée bien
entendu celle absorbée par le corps.

La forte radiométrie du coin réflecteur est amplifiée par un second phénomène : Le radar ne
perçoit que les distances, or la distance parcouru par l'onde est strictement identique quelque
soit la position où elle frappe l'objet. L'écho total renvoyé est donc interprété comme
provenant de la base du coin réflecteur quelque soit ses dimensions.

1.1.3 Principes de la réception

1.1.3.1 Système d'acquisition

Figure -7 : synoptique de l'instrument radar

L'antenne de réception est ordinairement la même que celle qui a émis l'impulsion
hyperfréquence. Le système doit donc alterner entre des phases d'émission et de réception afin
de réceptionner les échos radar. C'est ce que permet le circulateur en dirigeant chaque signal
entrant vers la sortie suivante (figure 1-7 ).

Mais l'antenne réceptrice peut être différente de l'antenne émettrice, afin d'étudier des
polarisations croisées ou de produire des interférogrammes (voir la section 3.2.2.1). Toutefois,
dans tous les cas, le principe de la réception reste le même :

• Le signal est d'abord amplifié.


• Il est ensuite transmis à deux démodulateurs couplés avec l'oscillateur local, qui
extraient la porteuse du signal de départ. Les démodulateurs sont déphasés de π /2
afin d'extraire deux projections du signal dans l'espace des phases (partie réelle et
imaginaire du signal). Le signal généré est nettoyé de la porteuse (dont la fréquence a
été doublée par la démodulation) par un filtre passe-bas.
• Deux Convertisseurs Analogique/Numérique permettent de générer l'information qui
sera stockée et éventuellement traitée à bord de la plate-forme aéroportée ou spatiale.
1.1.3.2 Echantillonnage

Le procédé de numérisation implique nécessairement un échantillonnage du signal. Deux


grandeurs supplémentaires caractérisent donc le dispositif d'acquisition :

• La fréquence d'échantillonnage Fe : elle suppose que le signal a une bande passante B


telle que :

Équation -3

théorème de Shannon pour un signal complexe

Remarque : Le signal est généralement, légèrement suréchantillonné d'un facteur 1,2.

• La PRF[3] : Le rythme de répétition des phases d'émission et de réception - c'est à dire


le rythme auquel les impulsions radar sont émises - sera particulièrement
dimensionnant des caractéristiques du système.

1.1.3.3 Système de détection

La figure 1-7 décrit schématiquement un dispositif complet d'émission et d'acquisition. La


modulation introduite sur le signal émis revêt deux fonctions distinctes, visant à une meilleure
interprétation du signal reçu.

• L'introduction d'un codage peut permettre de distinguer le signal acquis du bruit de


fond ou d'émissions parasites (systèmes de brouillage)
• Une modulation linéaire en fréquence crée une sorte de variation Doppler artificielle,
qui permet d'accroître la résolution en distance, grâce à un traitement approprié.

La technique la plus usitée est de corréler le signal reçu avec le signal de modulation : c'est le
filtrage adapté. Elle maximise le rapport signal sur bruit. Toutefois, si le signal est
suffisamment fort, il est possible d'utiliser des techniques dites super-résolvantes
[GUGLIELMI95] qui dégradent la qualité de l'information en amplitude mais accroissent la
résolution temporelle et donc la localisation (section 2.2.2.1).

1.2 L'image radar


1.2.1 Principes de construction

1.2.1.1 Le radar classique

Les premiers radars que l'on pourrait qualifier de radars imageurs étaient fondés sur le
principe qu'une antenne rotative, peut fournir une vision angulaire et radiale de l'espace
environnant (Figure 1-8 ) :

• L'indication de distance est fournit par la mesure du temps écoulé entre le départ de
l'impulsion et la réception de l'écho.
Figure -8 : Vision en distance et en azimut d'un radar

• L'antenne très directive en azimut balaye 360 deg dans le plan associé.

Quoique parfaitement adapté à des applications militaires de type détection de cibles, d'objets
volants ; cette technique ne fournit pas de résolutions suffisantes et de représentation adéquate
pour des applications civiles de type imagerie. Cependant le SLAR[4] en est directement
inspiré.

1.2.1.2 Le SLAR

L'objectif est d'obtenir une image (orthonormale de préférence) d'une surface au sol. Une
antenne est donc placée à dessein, à bord d'un satellite ou d'un avion. Elle est orientée
latéralement au porteur qui se déplace parallèlement à la zone à imager (Figure1-9 ).

• Comme précédemment, le temps de retour de l'impulsion électromagnétique fournit la


position en distance des différents éléments réflecteurs de la surface. La composante
en ligne est donc appelée distance. La largeur de champ illuminé par le lobe principal
est dénommée fauchée. La distance séparant le point le plus proche de l'image au
porteur est qualifiée de distance proximale (Near range en anglais), tandis que celle
séparant le point le plus éloigné est appelée portée distale (Far range en anglais).
• En revanche, c'est cette fois les positions occupées par le porteur tout le long de sa
trajectoire qui indiquent la position de la projection orthogonale de la cible dans la
direction de déplacement. Pour les raisons historiques énoncées précédemment; cette
composante a été dénommée azimut.
Figure -9 radar à visée latérale

L'antenne est orientée latéralement plutôt que verticalement pour une raison triviale : le radar
ne distingue les cibles que par leur distance. A la verticale du lieu, les distances sont
sensiblement les même donc les points ne sont pas discernables. Egalement, deux points
situés de part et d'autre de la verticale du radar sont équidistants donc confondus.

Remarque :

Dans notre construction de la figure 1-9 , pour des raisons de lisibilité, i désigne l'angle de
dépointage de l'antenne par rapport à la verticale, mais à grande distance, la courbure de la
terre intervient, et i doit être pris au niveau de la cible. C'est alors l'angle d'incidence de
l'onde, par rapport à la verticale.

1.2.1.3 Caractéristiques de l'image

L'imageur radar ne fournit pas une image mais deux images, une image d'amplitude et une
image de phase (ou plus s'il y a une information de polarisation). Toutefois, seule la
radiométrie constitue une information naturellement appréciable. L'emploi du terme "image
radar " désigne donc généralement l'image d'amplitude.

Dimensions :

Le système d'acquisition échantillonne et numérise les signaux reçus. Le signal est donc
quantifié et discrétisé. Le nombre d'étages de quantification est généralement de quelques bits.
La largeur de l'image en distance est caractérisée par sa fauchée, en revanche la taille en
azimut ne sera limitée, que par le temps total maximum d'acquisition, c'est à dire par des
contraintes de mémoire pour les systèmes embarqués, et par la bande passante du canal de
retransmission des données.

Pas entre pixels :


En azimut, le pas entre pixels est évidemment inhérent à la PRF et à la vitesse de progression
du lobe principal d'éclairement dans la direction azimutale. Si v est la norme de la vitesse
relative du porteur par rapport au sol, c'est à dire sa vitesse dans la direction de l'azimut :

Équation -4

En distance, c'est la fréquence d'échantillonnage qui est contraignante. Un facteur 2 intervient


dans le pas de résolution, puisque la distance séparant le radar de la cible est parcourue deux
fois (aller - retour). En outre, il faut prendre en compte l'angle d'incidence locale de l'onde
(par rapport à la verticale) pour obtenir la résolution projetée au sol :

Équation -5

Remarque : Le pas entre pixels dans l'axe des distances, dépend véritablement au niveau du
sol de l'angle d'incidence local effectif entre la verticale du point au sol et l'onde. En
conséquence, le pas de pixel varie en distance.

1.2.2 Géométrie de l'image Radar

1.2.2.1 Vision en distance

Figure -10 : Cibles projetées en distance

Si de prime abord, la géométrie d'une image radar peut apparaître similaire à celle d'une
image issue de techniques optiques, les projections associées sont cependant fort différentes.
En effet, tous les points situés à même distance pour une position azimutale déterminée, sont
confondus en une seule projection. Quatre effets observables sur la figure 1-10 en résultent :
• Avancée du relief : L'écho renvoyé par une zone montagneuse précède celui de sa
base. Les points C et E ont leurs projections respectives C' et E' inversées par rapport à
leurs positions réelles au sol. Les objets, surfaces en relief pointent vers le radar.
• Layover ou recouvrement : Des points appartenant a des zones de relief distinctes (Par
exemple B et E) sont confondus en radar alors qu'ils seraient aisément différenciables
en optique.
• Foreshortening[5] (ou raccourcissement) et Forte rétrodiffusion des pentes parallèles à
l'onde (C - D) : elles offrent une surface plus importante à l'onde, le nombre de
réflecteurs est donc supérieur pour une distance donnée. A cela se combine le fait
décrit page 9, selon lequel l'antenne se trouve dans la direction de réflexion. En outre,
l'image apparaît localement comprimée (racourcissement).

En revanche, comme en optique, les points situés dans la zone d'ombre ne fournissent pas
d'échos.

1.2.2.2 Analogie avec les systèmes optiques

Cette projection particulière fausse un peu le jugement pour la perception du relief. Il apparaît
alors de commode de se représenter le système radar en un système optique équivalent (figure
1-10). En effet, à grande distance :

• Le front de l'onde radar peut être considéré comme plan.

Figure -11 : analogie système radar / système optique

• De même les divisions angulaires d'un système optique, peuvent être assimilées à des
parallèles.

Toutefois cette représentation mentale induit en erreur, pour la compréhension des


phénomènes de layover et de forte rétrodiffusion. Le point F devrait être visible, et la zone B-
E devrait être cachée par le relief. C'est pourquoi l'examen d'une image radar en zone
montagneuse donne parfois l'illusion de voir en transparence.

1.2.3 Analyse de qualité image


1.2.3.1 Nature de l'information

L'image radar fournie par un seul canal de fréquence est plus riche d'information qu'en
optique, toutefois celle-ci est souvent plus difficilement exploitable :

Amplitude :

L'amplitude dépend du coefficient de rétrodiffusion de la cible dans les conditions


d'observation. Malheureusement, elle est également fonction de nombreuses caractéristiques
(pente locale, humidité du sol, orientation des sillons pour un champ, ...), et aléatoire
(interférences constructives et destructives décrites page 9). L'étalonnage est donc malaisé, et
la quantification des propriétés d'un type de cible rarement réalisable.

Afin réduire ces fluctuations aléatoires, des techniques de filtrage sont appliquées. Les plus
fréquemment usités, extraient une moyenne de plusieurs images. C'est la solution dite du
multi-temporel. De nouvelles techniques en cours de validation, vise à minimiser l'effet de
l'instrumentation et du procédé d'acquisition par décorrélation des pixels voisins.

Phase :

La phase du signal reçu est la somme de six phases :

Équation -6

1. La phase de trajet est le déphasage lié à la distance parcouru par l'onde.


2. La phase météo est un second déphasage de trajet produit par des conditions
atmosphériques particulières.
3. La phase de construction ne correspond à aucun phénomène physique mais sert à
modéliser la phase globale de l'ensemble des échos issus d'un pixel de résolution.
4. La phase de rétrodiffusion est le déphasage introduit au moment de l'interaction avec
l'élément de surface
5. La phase instrumentale est celle produite par le système électronique d'émission et
d'acquisition (temps de réponse des amplificateurs et autres dispositifs).
6. Un bruit de phase introduit par l'instrumentation et les procédés d'acquisition
(numérisation, dérives fréquentielles de la porteuse, ...)

On comprend aisément que l'information de phase n'est pas directement exploitable.


Toutefois, c'est une riche source d'information potentielle, si elle est comparée à celle extraite
d'autres images de la même zone (consulter la section page 49). Il est alors possible d'annuler
certaines contributions afin de recueillir une phase de trajet ou de météo.

Polarisation :

Un système composé de deux antennes de polarisation différentes permet d'extraire 4 cas de


polarisation (H-H, H-V, V-H, V-V[6]). Les travaux en cours permettent d'envisager de
nombreuses applications à cette information, cependant, la pléthore de paramètres et de
procédés d'extraction pour une information précise rend son usage complexe.
1.2.3.2 Résolutions

Si les dimensions et pas de l'image sont dimensionnées par les fréquences caractéristiques du
dispositif d'acquisition (PRF, Fe), la résolution réelle en est indépendante. Toutefois les
systèmes imageurs sont généralement conçus de manière à faire coïncider ces deux grandeurs,
ce qui évite une redondance de l'information et garantit une exploitation maximale des
performances du système.

Azimut :

La résolution en azimut est donc nécessairement dimensionnée par l'ouverture du faisceau


radar dans ce plan selon la formule 1-2. En pratique, les longueurs d'ondes sont de l'ordre du
centimètre et les antennes de quelques mètres, ce qui permet des ouvertures de quelques
degrés (ou inférieures en spatial # 0,2 deg). D'où :

Équation -7

où d est la distance du radar à la zone à imager. Cette technique n'autorise donc pas de
résolutions inférieures à la dizaine de kilomètres pour les plates-formes satellitaires, ou à la
centaine de mètres pour les systèmes aéroportés.

Distance :

Ce qui contraint la résolution en distance du dispositif est la durée de l'impulsion radar émise.
En effet, considérons un train d'onde hyperfréquence de durée τ . Pour pouvoir discerner les
échos de deux cibles considérées comme ponctuelle, le délai les séparant doit être bien
entendu supérieur ou égal à τ .

Figure -12 Distance minimale entre 2 cibles ponctuelles

Comme le montre la figure 1-12 , le deuxième écho parcourt deux fois la distance A-B, ainsi
la différence de trajet entre les deux trains d'onde est de 2d. La résolution en distance est donc
le chemin parcouru par l'impulsion au cours d'un temps τ /2

Équation -8
Le facteur contraignant est maintenant la durée de l'impulsion radar. Malheureusement, il est
techniquement délicat de mettre en oeuvre des trains d'onde d'un laps de temps inférieur à la
micro seconde ; car il faut alors concentrer un maximum d'énergie dans l'impulsion, pour
espérer avoir des échos d'amplitudes significatives. On obtient assez difficilement par cette
méthode des résolutions inférieures à la centaine de mètres. Cependant le satellite russe
Almaz était capable d'atteindre une résolution proche de 7 m avec des impulsions de 490kW
en crête et d'une durée de quelques nanosecondes.

Nous observons toutefois que la résolution en distance est indépendante à l'altitude du porteur.
Il faut de nouveau prendre en compte l'angle d'incidence i de l'onde pour obtenir une
résolution au sol équivalente.

Équation -9

1.2.3.3 Ambiguïtés

Les ambiguïtés étudiées ici sont celles produites dans le cas où le porteur serait un satellite.
En effet, dans cette situation la distance et l'ouverture de l'antenne sont telles, que la durée
totale de la phase de réception des échos renvoyés par une zone est bien plus courte que leur
temps d'aller-retour. Afin d'exploiter au maximum la bande passante du canal radar, les
impulsions sont alors émises à un rythme plus important que celui associé au temps d'aller-
retour du signal radar. Le dispositif alterne toujours entre les modes émission et réception
mais ajuste ses délais de façon à ce qu'une ligne d'échos arrive dans une phase de réception.
Toutefois l'impulsion correspondante a été émise longtemps auparavant (Figure 1-13 )

Figure -13 : Ambiguïté d'impulsion associée

Une mauvaise calibration ou une erreur d'association entre impulsion et écho sera à l'origine
d'ambiguïtés de localisation.
Ambiguïté en azimut :

Si l'image générée est bidimensionnelle, l'information reçue est quant à elle


unidimensionnelle. L'antenne ne fait que stocker une succession d'échos en fonction du temps
bien qu'ils soient stockés dans une matrice bidimensionnelle. Seule une connaissance
approchée et à priori de la distance de la zone à imager permet de calibrer les délais
d'acquisition et d'assigner la bonne position en azimut pour une ligne.

Si celle-ci est mal connue, le lieu imagé ne sera pas celui attendu. Mais surtout, le lobe
principal " éclairant " tout de même la zone étudiée ; des échos risquent de revenir plus tôt ou
plus tard et donc pendant une autre phase d'acquisition. Ils seront donc associés à une autre
ligne, c'est à dire à une autre position azimutale.

Egalement, des surfaces à forts dénivelés retourneront des signaux très décalés dans le temps,
et de nouveau les positions azimutales pourront être mal attribuées. Toutefois, la PRF, et les
distances sont telles que ce genre de phénomène est normalement impossible.

Ambiguïté en distance

En outre, même si les paramètres de l'acquisition ont été calibrés de manière suffisante pour
imager la zone souhaitée, la connaissance approchée et à priori de la distance de la zone
étudiée, est de nouveau capitale pour traiter les données.

En effet, cette information ne peut être extraite du signal reçue, elle est donc requise pour
effectuer la bonne correspondance entre impulsion de départ et écho reçu, sous peine de

commettre une erreur sur l'estimation de la distance de l'ordre de .

Ambiguïtés dues aux lobes secondaires :

Bien que la contribution des lobes secondaires soit généralement négligée, celle-ci peut être
nuisible dans certaines conditions :

• Présence d'une cible particulièrement réfléchissante dans la zone imagée. Les lobes
secondaires de la réponse impulsionnelle provoqueront un étalement de la cible sur les
pixels voisins en azimut. Cet effet peut être annulé par dé-convolution. Bien que
pouvant impliquer des problèmes de localisation, il s'agit d'un problème d'aliasing
plutôt que d'ambiguïté.
• L'inclinaison de l'antenne est telle qu'un des lobes secondaires pointe la verticale du
lieu. Ainsi qu'il a été expliqué précédemment, une surface perpendiculaire à la
direction d'irradiation constitue un réflecteur particulièrement efficace. L'écho arrivant
décalé en distance par rapport au reste de l'image, les paramètres de l'acquisition
doivent être ajustés de manière à ce qu'il ne revienne pas pendant une phase
d'acquisition.

See Also:

2.2.2 Valorisation de l'information


3.1.1 Aspect qualitatif

2 L'image radar synthétisée

2 L'image radar synthétisée

2.1 Le traitement de synthèse


2.1.1 Principes de la synthèse radar

2.1.1.1 Compression en distance


Principe

La section 1.2.3.2 a mis en évidence les faiblesses du radar en matière de résolution. Mais
celui-ci bénéficie d'une double information d'amplitude et de phase qui n'a pas été réellement
mise à profit jusqu'ici.

Les premiers radars visaient à la détection de cibles dans un rayon d'action assez court
comparé au radar spatial. Le facteur limitant était alors la technicité requise pour produire une
impulsion de courte durée, et de forte amplitude. Les premiers travaux visèrent donc à réduire
ce laps de temps, et aboutirent au principe de la compression d'impulsion.

Le concept a été effleuré dans la section 1.1.3.3. Il consiste à envoyer une impulsion modulée
linéairement en fréquence et à la corréler au signal retourné. L'effet résultant est qu'une cible
ponctuelle produit un sinus cardinal lorsque l'impulsion a une densité spectrale sensiblement
constante (Figure 2-1 ). De plus celui-ci est d'autant plus étroit que la largeur de bande est
grande. Le temps τ de l'impulsion comprimée est alors (largeur du lobe principal à ):
Figure -1 : principe du filtrage adapté ou de la compression d'impulsion

Équation -1

Nouvelle résolution :

La largeur de bande utilisée est généralement la fréquence d'échantillonnage Fe c'est à dire


quelques dizaines de MHz. Le temps associé est alors inférieur à 0.1 µ s, soit une résolution
d'une dizaine de mètres pour un ssytème spatial. Grâce au filtrage adapté, la résolution peut
être excellente même en utilisant des impulsions relativement longues. Ce procédé autorise
donc de produire des trains d'onde de forte énergie avec des puissances plus modestes.

Équation -2

Avec B de l'ordre de Fe, nous remarquons que la résolution en distance est du même ordre de
grandeur que le pas en distance défini par l'équation 1-5. Toutefois, si le signal est fort, les
lobes secondaires du sinus cardinal produiront un étalement de la cible en distance. Les forts
réflecteurs auront tendance à " baver ".

Remarque : L'impulsion modulée en fréquence est souvent désignée sous le nom de chirp[7].
En effet, si des vibrations acoustiques étaient associées aux échos radars, une oreille sensible
aux hautes fréquences entendrait une sorte de gazouillis perpétuel.

2.1.1.2 Compression en azimut


Principe : l'antenne virtuelle

Le facteur limitant en azimut est la trop grande ouverture de l'antenne. La solution la plus
simple est d'accroître la taille de l'antenne, mais les ssytèmes aéroportés et spatiaux ne
peuvent s'accommoder de dispositifs aux dimensions insolites.

Figure -2 Recouvrement des lobes d'illumination


La solution s'est présentée en inversant le problème : plutôt que de chercher à réduire
l'ouverture de l'antenne, il peut être intéressant de l'augmenter. La résolution est médiocre
mais si le porteur se déplace lentement, les zones d'illuminations vont se recouvrir en partie.
Ainsi chaque écho est la somme des échos retournés par un nombre important de cibles, mais
chaque cible est éclairée de nombreuses fois par l'antenne (figure 2-2 ).

L'information la concernant se retrouve donc répartie sur plusieurs lignes mais si une méthode
permettait de soustraire la contribution des autres cibles, il serait possible de synthétiser une
antenne beaucoup plus grande, et par là même d'obtenir une antenne virtuelle, extrêmement
directive. C'est le principe même de la compression en azimut (fig 2-3 ).

La difficulté à lever est donc d'isoler le signal produit par une cible quelconque tout au long
du parcours en azimut. La première méthode qui peut venir à l'esprit est celle basée sur une
résolution d'un ssytème d'équations. En effet, à chaque déplacement du porteur, une nouvelle
cible entre dans le champ du lobe principal, mais une autre en sort. Nous disposons donc
d'une mesure différentielle des échos de deux cibles distants de la largeur du champ. Si
chaque cible est vue n fois par l'antenne, la méthode revient à résoudre des séries de n
équations à n inconnues (En effectuant quelques conjectures sur les solutions). Outre l'énorme
volume de calcul que cela peut représenter, ces techniques numériques manifestent des
problèmes de stabilité. D'autres procédés sont donc employés, fondés sur une propriété du
signal renvoyé.

Figure -3 : Antenne virtuelle équivalente

Déphasage en azimut :

Comme le montre la figure 2-3 , la distance parcourue par l'écho pour arriver jusqu'à l'antenne
varie le long du trajet. Cet écart de distance engendre une variation de phase du signal par
rapport à l'oscillateur local. C'est cette signature qui va être exploitée. Si nous prenons comme
référence de position en azimut, x=0 le moment où le radar est au plus proche de la cible, la
distance d varie de la façon suivante :

(x<< d0) Équation -3


Le train d'onde parcourt deux fois cette distance, nous en déduisons au premier ordre, la
variation quadratique de phase :

Équation -4

A cette variation de phase peut être associé un décalage en fréquence du signal :

Équation -5

soit Équation -6

où est la vitesse relative du satellite par rapport au sol. Le décalage fréquentiel obtenu est
fonction de la progression en azimut, si θ est l'angle sous lequel est vue la cible par rapport à
la direction pointée par l'antenne, alors .

Équation -7

Nous pouvons observer qu'il s'agit précisément de l'expression de l'effet Doppler :

Équation -8

La différence entre sinθ et tanθ provient de l'approximation du premier ordre de l'équation


2-4, le coefficient exact étant bien entendu sinθ .

L'Hypothèse Stop and Go

L'hypothèse Stop and Go qui est le cadre du calcul de la section " Figure 2-3 : Antenne
virtuelle équivalente

Déphasage en azimut :

" est en réalité une modélisation de l'effet Doppler en azimut. La formule 2-4 supposait :

1. que le porteur ne s'est pas déplacé entre l'émission et la réception,


2. que le porteur ne se déplace pas au cours de l'émission et la réception

Ce qui n'est bien entendu pas le cas. Cette approximation est appelée l'hypothèse Stop and Go.
Nous savons qu'en général il se déplace de manière continue, cette simplification peut donc
conduire à des erreurs de localisation ou de compression, cependant son impact est au premier
abord négligeable, et ne change rien au principe de la synthèse.
Nouvelle résolution :

L'excursion maximale en fréquence est obtenue sur les bords du diagramme d'antenne (θ =±
∆ θ /2). Cela correspond généralement à un effet Doppler autour du millier de Hertz. C'est
cette variation en fréquence du signal qui permet d'extraire l'information étalée en azimut pour
chaque cible. Il suffit d'appliquer un traitement similaire à la compression en distance.

La largeur de bande du signal produit est donc celui de l'effet Doppler, ce qui, conformément
à la formule 2-1 donne une largeur d'impulsion :

Équation -9

Cette équation est à rapprocher du pas en azimut de l'image (formule 1-4). D'une manière
générale, la fréquence de la porteuse et l'ouverture de l'antenne sont ajustées telles que
B/0,885 soit du même ordre que la PRF, la résolution en azimut est alors proche de celle de
son pas. B étant la largeur de bande de l'effet Doppler, son expression réelle est :

Équation -10

2.1.1.3 Corrections des migrations

Le procédé de compression en azimut consiste donc à rassembler pour chaque cible


l'information étalée en azimut. Cette technique exige une localisation précise des différentes
contributions dans l'image. Or celles-ci sont souvent étalées en distance. Ce phénomène est
appelé migration. Il doit être corrigé avant la compression en azimut si l'on veut que celle-
ci s'effectue correctement.

Migrations paraboliques :

Ainsi que le représentait la figure 2-3 , la distance de la cible à l'écho varie le long du trajet.
Ce phénomène a bien entendu des répercussions sur l'image et les contributions doivent donc
être réalignées (figure 2-4). Bien entendu il sera d'autant plus important que l'ouverture de
l'antenne est grande et que la résolution en distance est petite. Pour les ssytèmes spatiaux, la
migration est de l'ordre de quelques pixels et peut parfois être négligée (par exemple pour le
satellite ERS).

Migrations linéaires

Egalement, dans certaines circonstances, une migration linéaire des échos peut être observée :

• L'antenne ne pointe pas tout à fait dans la direction perpendiculaire à la trajectoire. Les
bornes de variations de la parabole de phase décrite dans l'équation 2-4 ne sont plus
les mêmes. Ce qui revient à ajouter une migration linéaire à la migration parabolique.
• Le porteur ne se déplace pas tout à fait à distance constante du sol (Orbite de satellite
excentrée, imprécision de trajectoire du porteur). Cette variation de distance est
généralement approchée par une migration linéaire sur l'image.
• La terre tourne durant l'acquisition de l'image. Le vecteur de la vitesse relative du
porteur par rapport au sol, n'est plus perpendiculaire à la direction visée par l'antenne.
Ceci est donc équivalent à un dépointage de celle-ci.

Figure -4 : Migrations parabolique et linéaire corrigées

La migration linéaire peut donc toujours être assimilée à une mauvaise orientation de
l'antenne, ce que l'on caractérise par un " angle de dépointage " avant ou arrière.

2.1.1.4 Corrections radiométriques

La radiométrie d'une image radar pose de sérieux problèmes de représentation. Les


importantes variations d'amplitude d'une image radar contribuent à rendre difficile sa
visualisation et son interprétation sans traitement préalable. Ces phénomènes sont liés à la
technologie radar ou au traitement de synthèse :

• Le diagramme d'antenne n'est pas constant dans la direction de visée. Dans les
directions de début et fin de fauchée, la puissance émise et la sensibilité de l'antenne
est donc plus faible. Cela induit des réductions d'amplitudes à la distance proximale et
à la portée distale mais elles sont normalement infimes.
• La puissance de l'onde est inversement proportionnelle au carré de la distance et donc
théoriquement, la radiométrie diminue également avec la distance, mais en pratique,
les distances sont telles que ces variations sont imperceptibles.
• Chaque point de l'image synthétisée est la somme des contributions répartie en
distance et en azimut. Les points situés en bord d'image ne bénéficient donc que d'une
partie de l'information. La radiométrie du bord de l'image est donc moins importante.
• Le procédé de synthèse engendre par sommation une dynamique de signal très étalée,
qu'une représentation en niveau de gris est incapable de restituer correctement. Les
méthodes visant une modification de l'histogramme d'amplitude ne sont pas totalement
satisfaisantes (saturations, altération de l'information), les plus récents travaux
cherchent donc à exploiter au maximum la sensibilité radiométrique et spectrale de
l'oeil.

2.1.1.5 Corrections géométriques


Point de focalisation
Figure -5 : distorsion de l'image dûe au dépointage avant ou arrière de l'antenne

Le traitement de focalisation que ce soit en distance ou en azimut, pose la question du point


de focalisation. En quel point allons-nous rassembler toute l'information étalée d'une cible ?
En distance, ce choix produit un décalage ssytématique, l'image peut donc être facilement
recalée sur un repère. En revanche en azimut, si l'antenne est dépointée, il peut y avoir
distorsion. L'image n'est plus orthogonale, les colonnes pour une distance ne seront plus
calées les unes par rapport aux autres.

La figure 2-5 montre que des points qui au sol, ne sont pas alignés (dans la direction
perpendiculaire à la trajectoire), sont assignées à la même position azimutale dans l'image
radar. Il faut décaler les colonnes en fonction de la distance pour corriger cette distorsion.

En général, cette correction est effectuée au moment de la compression en azimut. En effet,


comme l'histoire d'une cible en terme d'effet Doppler est connue, il suffit de focaliser la cible
à la position azimutale correspondant à un effet Doppler nul. A cette position, La direction
porteur - cible est perpendiculaire à la trajectoire et les coordonnées azimutales sont donc
identiques. L'image focalisée sera donc orthogonale.

Ce traitement est schématisé sur la figure 2-6. La cible n'est plus focalisée au milieu de son
étalement en azimut comme il serait tentant de le faire (traitement dit " à Doppler moyen ")
mais à la position azimutale qu'occupe le porteur au moment où l'effet Doppler est nul
(traitement dit " à Doppler nul "). Nous pouvons observer que la cible ne se trouve pas
nécessairement dans le lobe d'antenne à l'instant du Doppler zéro.
Figure -6 : Focalisations à Doppler moyen et à Doppler nul

Projection au sol

L'image générée n'est pas encore superposable avec une carte ou une photo de la surface sol.
En effet, la composante distance (ou slant range[8]) ne peut être directement assimilée à une
position au sol, puisque la projection associée est inclinée. Les distances vont donc être
converties en terme de distance au sol (ou ground range[9]) par une simple division par .
Il faut toutefois se souvenir que i est l'angle local d'incidence, mais pour une petite surface,
l'angle moyen d'incidence peut répondre aux critères de précision.

Figure -7 : Projection des distances au sol

Référentiels géographiques

La géométrie obtenue est alors rigoureusement identique à celle du terrain, cependant afin de
pouvoir la superposer à celle d'un MNT[10] ou d'une photo, un nouveau traitement est
indispensable. Les coordonnées sont transposées dans l'espace du référentiel géographique
(référentiels de Lambert, ED87, WGS84, ...), l'image est ensuite plaquée sur la projection
associée (projection UTM[11], conique, elliptique, ...).
See Also:

1.2.3 Analyse de qualité image

2.1.2 Chaîne de traitement

2.1.2.1 Résumé des principes du SAR

C'est la connaissance à priori des excursions fréquentielles du signal retourné qui permet de
synthétiser l'image radar haute résolution. Cette variation est produite par la modulation de la
porteuse en distance, et par effet Doppler en azimut. Les techniques de compression
appliquées sont basées sur un calcul de corrélation avec le signal attendu. Le procédé de
synthèse SAR traitant toujours des données complexes est totalement réversible.

En outre, le traitement de synthèse du SAR en azimut implique une autre hypothèse qui n'a
pas été énoncée explicitement : invariance de la phase d'une cible exceptée celle de trajet. En
effet, selon l'angle d'éclairement de la cible, ou les écarts météorologiques au cours du
déplacement du porteur, le déphasage avec l'oscillateur local pourrait varier de manière
imprévisible (voir équation des phases 1-6, page 17); toutefois cela n'est heureusement pas le
cas, l'angle d'ouverture de l'antenne étant inférieure au degré et le temps total d'éclairement
inférieur à la seconde.

Les résolutions obtenues ne dépendent alors que de :

• (f0, ∆ θ ) la fréquence de la porteuse et l'ouverture du diagramme d'antenne en


azimut.
• (B, i) la largeur de modulation de la porteuse (et non sa fréquence) et l'angle
d'incidence de l'onde en fonction de la distance.

Ses caractéristiques ne dépendent donc pas de la distance du porteur à la zone à imager. Le


pas entre pixels reste toutefois indépendant de ces caractéristiques. Il ne dépend que de :

• (PRF, v) la fréquence de répétition des impulsions et de la vitesse du porteur.


• (Fe, i) la fréquence d'échantillonnage et l'angle d'incidence de l'onde en fonction de la
distance.

Les SLAR fonctionnant selon ce principe sont appelés Radars à Synthèse d'Ouverture (RSO,
ou SAR[12] en anglais). Les imageurs étudiés dans le premier chapitre, n'exploitent pas cette
technique et sont désignés par l'acronyme anglais RAR[13]. Il n'existe pas de RAR spatiaux en
raison de leur trop faible puissance à haute résolution.

2.1.2.2 Etapes du traitement de synthèse

Les étapes décrites précédemment sont résumées sur la figure 2-9 page 1. Une image Radarsat
de Montréal prise le 19 avril 1998 illustre le procédé de synthèse d'une image de RSO à partir
de données brutes. Nous pouvons constater que :
• Une image brute ne permet d'observer aucune structure (ou presque), quelle que soit sa
taille. A peine est-il possible de déceler la trace du fleuve St Laurent. Plutôt que brute,
l'image semble bruitée.
• La place du fleuve en distance a changé sur l'image synthétisée : dû au choix du point
de focalisation.
• Sans correction des migrations, pour Radarsat, l'image générée est de piètre qualité.
• Le speckle gène l'interprétation de l'image.

2.1.2.3 Taille de l'image produite

Le traitement de synthèse consiste, nous le savons, à rassembler les contributions d'une cible
étalée en distance et en azimut. Plus elles seront nombreuses, plus l'information concentrée en
un point sera exacte. L'image correcte finale est donc plus petite que l'image brute. (Voir
figure 2-8). L'étalement de la cible en azimut s'accroît avec la distance, l'image fidèlement
restituée n'est donc pas exactement rectangulaire (phénomène très nettement exagéré sur la
figure).

Figure -8 : Taille de l'image synthétisée

Inversement, les données brutes en bord d'image contiennent une portion d'information sur
des points hors de la zone étudiée. Il donc envisageable d'exploiter cette information
supplémentaire pour construire une image plus grande.

2.1.2.4 Traitements temporels


Avantages :

La figure 2-9, décrit un traitement que l'on pourrait qualifier de temporel ou géométrique[14].
En effet, l'image générée après chaque traitement est directement stockée en coordonnées
distance - azimut, mais nous verrons un peu plus loin qu'il est possible de travailler dans un
domaine fréquentiel (fréquences spatiales ou temporelles). Toutefois ce traitement temporel
est nettement avantageux d'un point de vue qualité image.

En effet, si la trajectoire du porteur par rapport au sol est connue, les variations de distance
d'un point au sol sont exactement quantifiables. Ainsi, s'il ne se déplace pas en ligne droite
(vents, dérives de pilotage pour un ssytème aéroporté), l'effet Doppler n'est pas celui souhaité
mais reste néanmoins prévisible.

Egalement nous pouvons nous affranchir des problèmes de corrections géométriques : les
migrations, changements de référentiels, projections sont directement calculées au cours de la
compression. Nous pouvons nous caler sur un MNT du terrain dés cette étape. En outre, le
traitement géométrique ne présente pas de difficulté de mise en équation insoluble.

Désavantage :

En revanche, les techniques numériques à mettre en oeuvre sont onéreuses en terme de temps
de calcul. Deux corrélations sont à appliquer - opérations de complexité en n2 - et de
nombreux calculs géométriques sont indispensables dans la boucle ultime. La contrainte
majeure est donc le produit temps - puissance de calcul disponible ce qui conduit à faire des
concessions entre qualité de synthèse et temps total de traitement. Cependant, l'envolée
permanente des performances des calculateurs tend à lever cet obstacle.
Figure -9: Chaîne de traitement de la synthèse radar

2.2 Traitements spécifiques


2.2.1 Traitements fréquentiels

2.2.1.1 Rappels sur les transformées de fourrier

Figure -10 : Transformées de Fourrier de quelques signaux

Il n'est pas question ici de faire un cours sur les transformations de Fourrier, mais seulement
d'évoquer les quelques propriétés indispensables à la compréhension du traitement fréquentiel
de la synthèse radar.

La figure 2-10 rappelle les transformées de Fourrier de quelques signaux fréquemment


rencontrés en radar. Ainsi,

• Le dirac a un spectre en amplitude de largeur infinie et une phase constante.


• Une rampe de phase en fréquence est équivalente à un décalage dans l'espace égal à la
pente : Une rampe de phase de décale le dirac de N en temporel.
• Un créneau est associé dans l'espace homologue à un sinus cardinal. Sa largeur à
est inversement proportionnelle à la largeur du créneau.
• Une parabole de phase provoque un étalement du signal sous forme de créneau. La
largeur et la forme du créneau sont d'autant plus marquées que la pente de la parabole
est forte. En revanche, l'amplitude diminuera avec la largeur.

Nous pouvons noter qu'un signal d'amplitude constante, mais avec une phase parabolique est
de toute évidence un signal modulé en fréquence.
2.2.1.2 Traitements fréquentiels
Compressions :

Les sections 2.1.1.1 et 2.1.1.2 ont montré que le signal reçu est modulé en fréquence, en
distance comme en azimut. La méthode temporelle pour comprimer ces impulsions consiste à
corréler le signal avec le chirp attendu. Cependant, l'intercorrélation de deux signaux est égale
à une convolution entre le premier signal et le conjugué du symétrique du second signal. Or,
la convolution est une opération aisément transposable dans le domaine de Fourrier, où elle
prend la forme d'un simple produit. En outre, le chirp centré est symétrique dans le temps (une
fois que la porteuse est soustraite). La corrélation revient donc à calculer dans l'espace de
Fourrier le produit de la transformée du signal reçu et de la transformée du conjugué du chirp.
Or, un calcul de FFT[15] est une méthode numérique parfaitement maîtrisée et de complexité
en . Un traitement fréquentiel sera donc particulièrement efficace.

Reprenons le raisonnement à l'aide de la figure 2-10. Nous savons que le signal d'une cible
ponctuelle est un chirp. Nous sommes donc dans le cas 4 de la figure 2-10. Si nous
supprimons la phase de sa transformée de Fourrier, nous nous retrouverons dans le cas 3, où
le signal est un sinus cardinal dans le domaine temporel. Ce sinus cardinal est d'ailleurs
d'autant plus étroit que le spectre est large. Or la parabole de phase est connue, il suffit donc
de la soustraire pour l'annuler. Cela revient donc dans le domaine de Fourrier, à une
multiplication par la transformée du chirp avec une phase opposée (le conjugué).

Taux de compression :

Dans les calculs, la transformée de Fourrier du chirp est généralement assimilé à un chirp. Son
amplitude est normalisée à 1, et sa phase varie donc paraboliquement. Nous définissons alors
les fréquences réduites fra et frd selon que le traitement s'effectue en azimut ou en distance :

et

La transformée du signal doit donc être multipliée par une fonction de la forme suivante et
appelée réplique (sous-entendu réplique ou conjuguée de la transformée du chirp)

Équation -11

N est appelé taux de compression car il indique l'étalement d'une cible en nombre de pixels. Il
est également qualifié de longueur de corrélation. En effet, localement, la pente est de -Nfr or
l'intervalle de variation de fr est de 1. N représente donc bien le décalage maximal d'une
contribution.

Ce taux peut être défini en fonction des paramètres de l'acquisition :

• En azimut, d'après l'équation 2-6, l'excursion en distance des contributions est :

, ce qui donne en pixels :


D'après Shannon, l'excursion maximale en fréquence qui peut être mesurée est PRF, d'où le
taux de compression Na :

Équation -12

En distance, le taux de compression Nd est fonction de la durée T du chirp émis :

Équation -13

Corrections des migrations :

Figure -11 : Migration en azimut et en fréquentiel-azimut

La figure 2-10 met en évidence qu'une rampe de phase en fréquentiel permet de décaler un
point en temporel. Ce phénomène est fort commode pour corriger les migrations. Cette
opération effectuée après la compression en distance et avant la compression en azimut (ou
pendant une de ces deux phases) exige un lourd calcul d'interpolation lorsqu'elle est effectuée
en temporel. Tandis que l'application d'une rampe de phase en fréquentiel-distance permet
aisément de recaler une ligne.

De plus, sur une même ligne, se superposent les contributions de différentes cibles, dont la
migration est différente. Le travail de correction des migrations ne se limite donc pas à un
simple décalage de ligne, il faut extraire puis déplacer chaque contribution en fonction de sa
position dans l'étalement. En revanche, le travail est bien plus simple en fréquentiel-azimut
(figure 2-11). En effet, le décalage en distance est directement fonction du décalage Doppler
du signal. Les migrations peuvent donc être corrigées des traitements fréquentiels en azimut
comme en distance. Il suffit alors d'appliquer une rampe de phase en fonction de la fréquence
en distance, dont la pente varie paraboliquement en fonction de la fréquence en azimut.

Nous définissons le facteur de migration :

La fonction correctrice est alors la suivante :


Équation -14

2.2.1.3 Chaîne de traitement

Figure -12 : Traitements fréquentiels

L'ordonnancement des étapes de la chaîne de traitement est rigoureusement identique à celui


étudié précédemment, avec toutefois des transformations de Fourrier intercalées. Nous
pouvons observer que la réplique en azimut pourrait être appliquée dans l'espace
bidimensionnel de Fourrier, toutefois le taux de compression azimutal varie avec la distance,
il est donc indispensable de retourner en distance pour effectuer les corrections requises.

2.2.1.4 Erreurs et ambiguïtés de traitement


Erreurs du traitement fréquentiel :

Les migrations ne sont qu'imparfaitement corrigées, puisque la pente de correction dépend du


taux de compression Na qui lui-même varie avec la distance. Or pour corriger ce décalage en
distance, il est nécessaire de travailler en fréquentiel. Nous ne pouvons donc employer qu'un
taux moyen de compression.

En outre, nous avons supposé jusqu'à présent que la trajectoire du porteur était rectiligne
uniforme. Or, un satellite a généralement une orbite quelque peu elliptique, et un avion dévie
toujours sensiblement de la trajectoire prévue. Ces variations inattendues ou non-standards du
Doppler ne pourront autoriser un traitement fréquentiel classique. Seul un traitement temporel
serait adéquat.
Ambiguïtés en azimut :

En théorie, un léger suréchantillonnage du signal en azimut par rapport à la bande Doppler est
suffisant. En pratique, ce procédé introduit des ambiguïtés sur l'interprétation de la fréquence,
celle-ci ne pouvant être connue qu'à une PRF près. Deux phénomènes peuvent produire des
échos fantômes :

Figure -13 : Spectre en azimut en fonction du dépointage d'antenne.

Ambiguïté d'interprétation des fréquences.

• Le dépointage d'antenne.

La figure 2-13 résume les problèmes rencontrés. Si le dépointage d'antenne est léger, une
interprétation du spectre en azimut permet de lever une ambiguïté sur les fréquences. En effet,
la forme du spectre est approximativement celui du digramme d'antenne, il est donc
relativement aisé d'identifier par analsye le début et la fin du spectre.

Toutefois, si le dépointage est plus important, il devient effectivement épineux d'estimer le


nombre de PRF d'erreur. Seule une connaissance à priori du dépointage, où des essais
multiples peuvent résoudre ce problème.

• Les repliements du spectre :

Figure -14 : Repliements du spectre en azimut

Lorsque l'énergie contenue dans les lobes secondaires n'est plus négligeable, le spectre du
signal est alors bien plus large qu'une PRF. Le signal sous-échantillonné ne peut alors plus
être interprété correctement en fréquence (voir figure 2-14). En outre, l'ouverture d'antenne est
définie par rapport à sa largeur à -3Db, si la fréquence d'échantillonnage est fixée au plus juste
le lobe principal sera un peu plus étendu.

Correction des repliements

L'erreur produite par l'ambiguïté en fréquence est parfois si contraignante, que le procédé
employé pour l'atténuer consiste généralement à éliminer ou à réduire la contribution des
fréquences suspectes. Deux techniques permettent d'obtenir un tel résultat : la présommation
et l'apodisation.

• La présommation réduit la largeur du spectre de moitié, en conservant la partie


prépondérante du lobe principal. Dans cette zone, les repliements apportent des
contributions négligeables. Cette opération conduit à réduire de moitié la résolution
théorique en azimut.
• L'apodisation se contente de pondérer le spectre par une fonction dont l'amplitude est
maximale essentiellement autour du Doppler moyen (fenêtre de Hamming par
exemple).

2.2.2 Valorisation de l'information


2.2.2.1 Optimisation de la résolution
Autofocus :

La qualité de l'image restituée est tributaire de l'estimation des paramètres et plus précisément
des taux de compressions. Toutefois les erreurs de quantification peuvent être minimiser par
des traitements de type autofocus. Il suffit d'appliquer un taux de compression variable et de
considérer les variations de la fonction contraste. En outre cette technique peut être employée
non seulement pour évaluer le taux au moment de la synthèse mais aussi pour le corriger en
post-traitement. En effet l'intégralité de l'information complexe est toujours disponible, et une
image mal synthétisée peut donc toujours être refocalisée.

Une autre méthode exploite la largeur de bande du spectre en azimut pour produire deux
images. Elle consiste donc à extraire une partie des basses fréquences, et une portion des
hautes fréquences pour générer deux jeux de données brutes. Ensuite, un taux quelconque est
appliqué et les deux images synthétisées sont corrélées entre elles. Si le taux a été mal ajusté,
une cible ponctuelle sera focalisée en deux points différents, la mesure de la distance les
séparant (par corrélation donc) quantifie exactement l'erreur d'estimation du taux de
compression (à un facteur prés lié à la largeur des bandes sélectionnées et au type de
focalisation)

Super résolution :

Nous savons que la résolution de l'image obtenue est inhérente de la bande passante du signal
reçu. L'idée est d'élargir ce spectre pour accroître le pouvoir de séparation du système. Deux
techniques sont disponibles :

• Utiliser un signal issu d'une acquisition différente et caractérisé par une portion de
spectre distincte. Il suffit d'ajouter la portion de spectre non commune, pour obtenir
une image de résolution théorique plus importante.
• Exploiter les repliements du spectre, pour cette fois générer un signal de bande
passante plus grande. La difficulté est alors d'extraire ces repliements.

Les travaux en cours sur les méthodes de super-résolution nécessite encore de nouvelles
validations pour être concluants.

2.2.2.2 Filtrages
Filtrage du speckle

Les variations quasi stochastiques de la radiométrie d'une image nuisent généralement à son
interprétation, pour un oeil non initié. Ce chatoiement, absent dans le domaine optique,
conduit une majorité d'utilisateurs à préférer des images traitées contre ce phénomène. Les
solutions proposées sont fondées sur un moyennage et sont souvent adaptées de techniques
issues du monde optique.

Le lissage temporel ou multi-temporel moyenne plusieurs acquisitions effectuées à différents


moments. Cependant, En sectionnant le spectre d'un jeu de données, il est possible de
synthétiser plusieurs images, c'est la technique du multi-vue. Egalement, en supposant les
pixels voisins indépendants, une moyenne réduira le speckle tout en dégradant la résolution.
Par extension, il a été donné le qualificatif de multi-vue à tout traitement visant à moyenner
une ou plusieurs images.

Il est également possible d'effectuer des lissages radiométriques à partir d'une seule image, en
considérant le speckle comme un bruit.

Réduction des lobes secondaires

Le procédé d'échantillonnage et de compression, engendre des lobes secondaires (ceux du


sinus cardinal), qui corrèle les pixels entre eux et provoque un " bavement " des cibles les plus
réfléchissantes. Une repondération spectrale du signal (égalisation de l'amplitude) peut
permettre de réduire l'amplitude des lobes latéraux. Cependant, la résolution de l'image en
sera d'autant plus dégradée, puisque c'est alors le lobe principal qui sera élargi.

See Also:

1.2.3 Analyse de qualité image

2.2.3 Modes SAR particuliers

Certains SAR sont capables d'avoir des modes de fonctionnement très particuliers afin de
surdimensionner une caractéristique de l'acquisition. Les propriétés singulières qui en
découlent vont être traitées ici.

2.2.3.1 Spot light

Nous savons que la synthèse SAR augmente la résolution d'une image brute grâce à une
antenne virtuelle, dont les dimensions sont inhérentes au temps d'acquisition. Le principe du
spot light[16] consiste à éclairer plus longtemps la zone à imager.

Figure -15 : Le mode Spot Light

Cette technique est envisageable sur les systèmes capables de dépointer leur antenne afin de
suivre une zone au sol (aucun système civil ne permet à ce jour ce genre d'opération). Les
effets Doppler pourront être plus importants et donc la largeur du spectre en azimut aussi, et
par conséquent la résolution sera plus fine. Toutefois ce procédé ne permet d'augmenter la
résolution que dans la direction azimutale, en outre il n'est plus possible d'imager une large
zone en azimut (Voir figure 2-15).

2.2.3.2 ScanSar

Figure -16 : Le mode ScanSAR

La technique du ScanSAR[17] (parfaitement opérationnelle sur les satellites RadarSat)


exploite également les propriétés de dépointage de l'antenne mais cette fois latéralement. La
technique de compression en distance n'étant fondée que sur la modulation en fréquence de
l'impulsion émise, le pouvoir séparateur n'en sera pas accru, en revanche, la fauchée sera plus
grande (Voir figure 2-16)

Cependant, comme le montre la figure 1, l'acquisition en azimut comportera des trous.


Toutefois, l'ouverture de l'antenne est telle que les zones échantillonnées se recouvrent, il est
donc possible de synthétiser une image continue à partir de ces acquisitions morcelées.
Néanmoins, la résolution en azimut sera dégradée au profit du gain en fauchée.

3 Exploitation de l'image radar

3.1 Interprétation de l'image


Nous savons que l'image de phase est une information peu pertinente, lorsqu'elle est exploitée
directement, nous traiterons donc dans cette partie de l'utilisation de l'amplitude et des
applications qui en découlent.

3.1.1 Aspect qualitatif

3.1.1.1 Vision spécifique

La vision du radar offre de par ses caractéristiques (voir section 1.1.2.1 et 1.2.1.2) de
nombreuses applications :
• La source d'éclairement est le radar. Le système peut donc observer la terre à
n'importe quel moment de la journée (même la nuit), sans être perturbé par les
conditions d'ensoleillement.
• La radiométrie de l'image n'est pas ou peu affecté par les conditions atmosphériques et
météorologiques. Le radar permet donc de cartographier des territoires fréquemment
recouverts par des bandes nuageuses (Cartographie des zones tropicales par RadarSat)
• L'imageur radar a une visée latérale, il permet donc d'observer une zone sans la
survoler, jouant un rôle décisif dans le cadre d'opérations d'espionnage ou tactiques.

3.1.1.2 Eléments anthropiques


Coins réflecteurs, bâtiments

Nous savons qu'un coin réflecteur est fortement rétrodiffusant, des dièdres ou trièdres
disposés sur le sol sont donc des repères aisément détectables. C'est donc un excellent
instrument de localisation ou de calibration d'une image radar.

En outre, l'activité anthropique engendre des constructions présentant de nombreux angles


droits, le milieu urbain sera donc sujet à générer des échos de fortes amplitudes concentrés à
la base des bâtiments. De plus en bande P, les ondes peuvent traverser un couvert végétal. Le
radar offre alors un moyen efficace de détection des structures anthropiques cachées sous une
forêt (ruines, sépultures oubliées, ...)

Objets métalliques

Nous savons que les corps métalliques sont particulièrement rétrodiffusants, le radar trouve
donc de nombreuses applications militaires. La détection des chars est en l'occurrence aisée et
leur camouflage difficile : le radar ne peut en effet être trompé par des leurres visuels ou
thermique, de plus l'onde radar est capable de pénétrer le sable.

En outre, la détection de navires est très largement facilitée : l'eau apparaissant très sombre et
les bâtiments très brillants, leur repérage sur une image balayant une large zone est quasi
instantané.

3.1.1.3 Impact de l'eau


Mesure du bruit instrumental

L'eau des fleuves et rivières étant relativement peu agitée, la surface de l'eau se comporte
comme un miroir. Ainsi elle est apparaît normalement totalement sombre dans une image
radar. Cette absence d'écho renvoyé permet de quantifier le niveau du bruit instrumental, qui
est typiquement autour de -20Db à -25Db du niveau moyen de l'image (respectivement pour
RadarSat et pour ERS).

En revanche à proximité de la verticale du porteur, l'énergie renvoyée est colossale, et le


signal est saturé. Certains systèmes ont la propriété de pouvoir adapter leur gain (par exemple
RadarSat) en fonction de l'amplitude du signal, cette caractéristique peut sembler de prime
abord séduisante, cependant elle a pour effet de saturer l'image sur les bords de côtes et de
rendre l'information difficilement exploitable (l'instrument ne s'adaptant pas instantanément
lors de la transition mer - terre).
Ponts fantômes

Figure -1 : Pont fantôme

L'effet miroir de l'eau a aussi pour conséquence de créer des échos fantômes. Les ponts,
souvent métalliques, produisent alors un écho artificiel ponctuel (voir figure 3-1). Puisque
seuls les réflecteurs verticaux peuvent générer des échos fantômes, nous nous retrouvons dans
la situation du coin réflecteur. Ainsi plutôt que de produire une image renversée, le radar ne "
raisonnant " qu'en terme de distance, tous les échos seront concentrés à la distance
représentant la base théorique du pied. Un second pont mince peut donc apparaître à la
surface de l'eau.

Etude des courants

En plein océan, l'eau ne se comporte pas comme un simple miroir mais plutôt comme un
miroir déformé. Les vagues génèrent des échos dans la direction de rétrodiffusion, avec
production d'interférences, qui induisent des variations d'amplitude importante. Le dispositif
ne permet pas toujours d'observer les vagues, mais la radiométrie étant différente selon leur
orientation, il est donc possible d'observer les courants et cela même avec des systèmes
spatiaux.

3.1.1.4 Etude des sols, des cultures


Classification, segmentation

La dynamique des échos renvoyés par les surfaces naturelles, et les cultures est généralement
limitée. En outre, l'information d'amplitude est souvent insuffisante pour l'identification du
terrain, elle autorise tout au plus, une différenciation entre les zones riches ou pauvres en
matériaux métalliques. En revanche, le radar peut s'avérer un puissant outil de segmentation,
notamment des cultures. En effet, le radar étant particulièrement sensible à la disposition des
réflecteurs élémentaires, toute organisation sous-jacente induira un comportement différent :

• Le speckle est lié aux phénomènes d'interférences entre les différents éléments
réflecteurs, au sein d'une cellule de résolution. Son comportement statistique est donc
lié à la rugosité de la surface, ainsi la statistique du speckle peut s'avérer un excellent
outil de segmentation des surfaces.[ZONG96]
• Les sillons sont le cas typique de différenciation aisée. Ils présentent de toute évidence
des directions privilégiées, de telle sorte qu'un champ labouré produit des échos plus
ou moins destructif ou constructif selon l'angle de vue. Deux champs voisins n'ayant à
priori pas d'orientation commune, ont donc des radiométries différentes. En
l'occurrence, il est donc également possible d'identifier des cultures en labours, si l'on
dispose de plusieurs vues de la zone, sous des angles distincts.

Toutefois, la classification des cultures et des sols est nettement facilitée, si l'information de
polarisation est disponible (au moins 3 : HH, VV, et une polarisation croisée). La signature
matricielle de la réponse de la cible est un bon élément de caractérisation des surfaces.

Mesure de biomasse

Le radar est d'ordinaire peu adapté à la quantification de la biomasse, toutefois il existe des
cas particuliers où il peut donner d'excellents résultats : les cultures sur sols inondés. En effet
selon le stade de développement de la plante, elle émerge plus ou moins, c'est donc l'effet
miroir de l'eau ou diffusant de la plante qui domine selon sa hauteur et son LAI[18]. La
radiométrie de la culture est donc corrélée avec la biomasse.[RIBBS98]

Etude géologique

Nous n'avons parlé jusqu'à présent que de radars aéroportés ou spatiaux, mais il existe
cependant des radars imageurs sols outre ceux dédiés à la détection d'objets volants. La
possibilité de travailler à des longueurs d'onde plus grande (bandes L et P, technologies très
coûteuses en spatial) octroie la capacité de sonder un sol en profondeur (jusqu'à plusieurs
dizaines de mètres, pour les sables secs).

Le radar est certes sensible à la métallicité des couches traversées, plus précisément aux
modifications de la permittivité diélectrique. Le radar est donc apte à détecter les interfaces de
milieux d'indices différents.[GRANDJEAN99]

Dans les contrées désertiques, les systèmes aéroportés permettent d'observer des structures
géologiques enfouies sous le sable : traces d'anciens lits de rivière, roches mères ou sédiments
différents, ...

See Also:

1.2.3 Analyse de qualité image

3.1.2 Aspect quantitatif

3.1.2.1 Localisation précise d'une cible

Le radar bénéficie d'un immense avantage dans le domaine de la localisation par rapport aux
dispositifs optiques : L'image synthétisée est insensible aux dépointages du système
d'acquisition.

Comme en optique, la connaissance de la trajectoire du porteur est indispensable à la


localisation. En revanche, une mauvaise orientation du capteur ne conduit à aucune erreur de
positionnement, celle-ci étant donnée par le signal lui-même. Le Temps de trajet de l'onde
nous donne la distance de la cible, et le décalage Doppler du signal sa position en azimut. Le
traitement de focalisation à Doppler zéro donnera exactement l'image de la zone attendue.
L'effet du dépointage se limitera à une baisse de la radiométrie, la zone éclairée n'étant pas
celle imagée (minime en général car la surface éclairée est très large).

Tandis qu'en optique, une erreur d'orientation de quelques dixièmes de degré peut fausser le
positionnement de plusieurs kilomètres, et seule l'utilisation de repères au sol peut permettre
de localiser l'image.

Par recoupement entre plusieurs passages, la localisation est très vite optimale. Deux passages
(orbites croisées, montante et descendante) suffisent au satellite ERS pour positionner un
point au sol dans un parallélépipède de dimensions 15× 15× 5 mètres (x× y× altitude).

3.1.2.2 Détection de cibles mobiles

Nous savons que la synthèse en azimut est fondée sur la mesure du Doppler, or ce dernier est
fonction de la vitesse relative du porteur par rapport à la cible, une cible en mouvement risque
donc d'avoir des effets singuliers. Il faut distinguer deux cas selon qu'elle se déplace en
distance ou en azimut.

Nous rappelons que le Doppler mesuré est de la forme :

Si l'objet se déplace, une erreur est donc commise sur l'estimation de sa position en azimut et
la vitesse relative du porteur par rapport à l'objet. Nous appellerons respectivement xs, vs et xo,
vo les positions en azimut et vitesses du satellite et de l'objet par rapport au référentiel
terrestre.

Mouvement en azimut

Supposons qu'il se déplace dans la direction de l'azimut (vo positif pour un déplacement dans
la même direction que le porteur), nous obtenons les positions et vitesses relatives suivantes :

avec

d'où

et

L'effet Doppler réellement mesuré pour cette cible est donc :


Or celui utilisé pour la compression en azimut est :

Une erreur sur le taux de compression est donc faite. Nous pouvons estimer l'erreur relative
sur Na :

Équation -1

L'erreur produite est donc négligeable pour un système spatial (vitesse du satellite : plusieurs
kilomètres seconde).

Mouvement en distance

Si cette fois il se déplace en distance nous obtenons alors (vo positif pour un rapprochement en
distance):

et

D'où le Doppler réellement observé :

Lorsque la compression en azimut va synthétiser l'objet à sa position de Doppler zéro, il va


être positionné en :

Sa position réelle étant par définition x=0, celui-ci est synthétisé en un point décalé en azimut.
Cet effet n'est jamais négligeable puisqu'en spatial la distance proximale r0 est alors
importante.

Toutefois, le problème est un peu plus complexe. Puisque le signal est échantillonné à PRF, il
ne permet donc pas d'estimer correctement des décalages fréquentiels plus important. Or
l'écart en fréquence par rapport à celui attendu est :

Équation -2
Pour des longueurs d'onde moyennes (bande C) ou plus petite, le décalage est très vite de
plusieurs centaines de Hertz. Les contributions situées dans la partie mal interprétée du
spectre, ont des migrations qui ne pourront être convenablement corrigées (Celles-ci seront
même aggravées). La compression en azimut de ces contributions ne pourra avoir lieu, au
mieux, une seconde image mal focalisée de la cible apparaîtra une ambiguïté plus loin en
azimut.

Remarque : vo est la vitesse de l'objet projetée sur l'axe des distances.

Équation -3

Mesure de vitesses

La défocalisation ou le décalage en azimut ne sont pas normalement exploitable pour


quantifier la vitesse de l'objet sauf dans un contexte particulier : la position réelle de l'objet est
connue. Dans ce cas précis, la mesure du déplacement introduit lors de la compression
azimutale permet d'estimer la vitesse de l'objet dans la direction perpendiculaire à la
trajectoire. Il existe deux cas particulièrement représentatifs :

• Le sillage des bateaux est fortement rétrodiffusant, celui-ci étant immobile il n'y a pas
de déplacement en azimut. Il représente donc la trajectoire réelle du navire qui lui sera
focalisé en un point différent.
• Des voitures circulant sur un pont, " roulent " de part et d'autre de celui-ci selon leur
sens de déplacement, c'est à dire sur l'eau.

Il faut noter toutefois, qu'il existe des systèmes radars dédiés à la mesure des vitesses : les
radars MTI[19]. Ceux-ci ne sont pas des radars imageurs et sont de surcroît plus performants
pour cette application spécifique.

3.1.2.3 Production de MNT

En raison du speckle, l'emploi de techniques optiques pour l'extraction du relief en imagerie


radar est délicat. Toutefois, le radar est particulièrement sensible à la pente de la surface
rétrodiffusante, de ce fait la radiométrie est un bon indicateur du relief.

• La radarclinométrie ou le shape from shading[20] du radar exploite donc les variations


de luminosité de l'image pour reconnaître les dénivelés. Cette technique ne permet de
mesurer que d'importantes variations de hauteur sur de larges zones, compte tenu de
l'incertitude introduite par le speckle sur l'interprétation de l'amplitude. En revanche,
elle se libère aisément des contraintes liées à la végétation, et aux éléments naturels
recouvrants le sol, en optant pour de grandes longueurs d'onde.
• La radargrammétrie, petite soeur de la photogrammétrie est beaucoup plus ardue que
dans le domaine optique. En effet, les repères habituellement employés comme la
texture, la luminosité de certains points, la couleur, sont brouillés par le speckle (la
couleur pouvant être remplacée par la polarisation ou l'utilisation de plusieurs canaux).
De nouveau, il est nécessaire de travailler sur de larges zones pour s'affranchir de cette
contrainte ou sur des images multi-vues.
Cependant, nous verrons dans la section 3.2.2.3 que le radar imageur dispose d'outils
beaucoup plus performants pour produire des MNT.

See Also:

3.2.2 Interférométrie

3.2 Produits dérivés


L'information de phase a jusqu'à présent été négligée, toutefois combinée avec celles extraites
d'une ou plusieurs autres images acquises sous des angles différents et/ou à des moments
différents, elle représente une information de premier plan.

Le principe général est que deux images prises sous des angles de vues proches vont avoir une
phase qui ne va se différencier que par la phase de trajet (qui intègre ici la notion de phase de
construction). Les autres contributions de l'équation 1-6 sont supposées constantes. Un
déphasage entre deux images recalées permet donc de mesurer des variations de distance
proportionnelles à la longueur d'onde.

3.2.1 Image de cohérence

3.2.1.1 Principes

Considérons deux acquisitions d'une même scène prise dans des conditions identiques (même
position relative du porteur, mêmes angles de vue, mêmes conditions météorologiques), mais
à des moments différents. Les images de phase sont identiques sauf si la surface à changé
entre les deux prises. Il suffit d'une légère modification de la longueur de trajet pour produire
un déphasage puisqu'elle est sensible à des modifications inférieures à la longueur d'onde
(centimétrique en bande C).

En pratique, le porteur n'occupe jamais exactement la position, il est donc impossible de


raisonner en terme de différence de phase. En revanche les variations de phase sur l'image
seront corrélées avec celles de l'autre image. Nous pouvons donc employer la fonction de
cohérence sur des parcelles de sol comme un estimateur des changements géométriques sur
cette parcelle.

Équation -4

x1 et x2 représentent les échantillons complexes des images respectives 1 et 2, < > est
l'opérateur moyenne appliqué sur une parcelle.

3.2.1.2 Limitations

L'estimateur de la moyenne doit être appliqué sur une parcelle de surface, l'image de
cohérence générée est donc de faible résolution. En outre l'estimateur ci dessus est fortement
biaisé pour des faibles surfaces et de faibles cohérences. Le traitement est donc généralement
effectué sur des images multi-vue.[TOUZI96]

De plus, la mesure de cohérence étant fondée sur la phase, celle-ci est donc entachée de toutes
les erreurs qui peuvent affecter la phase. Les deux positions occupée par le porteur au moment
des acquisitions doivent donc être suffisamment proches pour que les phases de construction
et de rétrodiffusion soient quasi identiques. Cette contrainte est la même que celle qui
assujettit l'interférométrie (section 3.2.2.2, page 55).

3.2.1.3 Applications

Tout changement de rugosité, ou de hauteur d'une surface générera donc une faible cohérence.
L'image de cohérence est donc un puissant outil pour reconnaître :

• Les cultures : d'une manière générale, les couverts végétaux perdent très vite leur
cohérence au cours du temps. En revanche, les sol nus, les milieux urbains la
conservent bien. Il est donc facile de discerner les couverts végétaux du milieu
environnant mais aussi entre eux. Selon le rythme de croissance des plantes, cet
estimateur diminuera plus ou moins rapidement. Egalement, des modifications plus
radicales du sol produiront des chutes drastiques de la cohérence (Moissons, labours,
déforestation, incendie...).[SARTI98]
• Les surfaces liquides : la radiométrie n'est pas toujours suffisante pour distinguer le lit
d'une rivière des marécages avoisinants, ou de sols particulièrement sombre, tandis
que la cohérence quasi nulle permet un fort contraste entre une rivière et les zones
adjacentes. Egalement, en cas de vent, la radiométrie de la mer agitée est similaire à
celle des côtes ce qui n'est pas le cas de la cohérence.
• L'anthropisation de l'environnement : l'activité humaine modifie l'environnement, et
laisse donc des traces indélébiles. Un champ traversé par un char garde des stigmates
invisible sur une image optique, mais ostensible sur une image de cohérence (si les
images ont été prises dans un faible intervalle de temps).

3.2.2 Interférométrie

3.2.2.1 Principes
Modes de fonctionnement

L'interférométrie vise à estimer la différence de phase entre deux acquisitions afin de


quantifier la variation de distance. Dés lors, deux modes d'utilisation sont possibles :
Figure -2 : stéréo - interférométrie

• Vision stéréoscopique : Le principe est le même qu'en radargrammétrie, la parallaxe


mesurée entre les deux images est exploitée pour restituer le relief, à la différence que
la parallaxe est de plusieurs milliers de longueurs d'onde et est estimée à une fraction
de longueur d'onde près. C'est donc la distance orthoradiale entre les satellites (voir
figure 3-2) qui va générer la perception du relief.

Nous pouvons dés lors envisager deux dispositifs de mesure :

o Une solution mono-antenne avec deux passages, où le décalage entre les deux
trajectoires (généralement parallèles) sert de base stéréoscopique, mais où les
changements intervenus sur la surface risquent de gêner le traitement.
o Un dispositif équipé de deux antennes et effectuant un seul passage. La
seconde antenne peut alors être passive, mais il faut veiller à maîtriser
parfaitement le roulis du porteur.
• Vision différentielle : Le but est de mesurer les déplacements d'une surface entre deux
prises. Idéalement, il suffit de disposer de deux acquisitions prises dans des conditions
d'observation strictement identiques, afin de ne mesurer que les déplacements de
surface et non le relief ; mais comme cela est rarement envisageable, le recours à une
troisième acquisition en stéréovision ou à un MNT est indispensable pour s'affranchir
du déphasage introduit par le relief.

Calcul du déphasage

Considérons la différence de phase de trajet entre les deux acquisition de la figure 3-2.
L'image obtenue à la distance d1 est appelée image maître. Nous obtenons :

Équation -5

Or,
Au premier ordre :

Équation -6

Or i=i' et est positif, en remplaçant par la base orthoradiale :

Équation -7

L'intérêt de remplacer par la base orthoradiale est que si les orbites ne sont pas à la même
altitude, cela ne fait que rajouter une phase constante (seule la base orthoradiale doit être
réévaluée). Cependant, les calculs précédents ne prennent pas en compte la rotondité de la
terre, une correction doit donc y être apportée dans le cas de systèmes spatiaux.

Dans ce cas, l'incidence locale i' est différente de l'inclinaison i, avec

Équation -8

Remarque : en acquisition simultanée, la seconde antenne est généralement passive, ∆ φ est


alors moitié moindre. En effet, le trajet de l'onde n'est différent que sur le parcours de retour.

Variations du déphasage

Pour extraire le relief, ce qui va nous intéresser ce sont les variations du déphasage en
fonctions des déplacements en distance et en azimut. Considérons la figure 3-3, nous oublions
φ
la rotondité terrestre, et nous allons traduire cette variation ∆ 2 en termes de variations de
positions. Pour cela il nous faut repartir de l'équation 3-6, puisque la base orthoradiale varie
en fonction de y.
Or nous pouvons exprimer la relation entre ∂
y, ∂ d et ∂ z :

Figure -3 : coordonnées de deux cibles infiniment proches

Équation -9

D'où :

Finalement :

Équation -10

Interférogramme

Ce principe est baptisé interférométrie puisque le calcul de déphasage est équivalent à une
création d'interférence entre les deux images, c'est à dire entre les échos reçus dans les deux
situations.

Pour calculer le déphasage entre les deux prises, il est essentiel d'établir une relation entre les
pixels des deux images. Celles-ci doivent donc être non seulement recalées l'une par rapport à
l'autre, mais pour qu'elles soient parfaitement superposables, une correction géométrique est
requise. Nous nous trouvons face aux problèmes rencontrés en radargrammétrie, dus à la
stéréovision, toutefois la déformation à appliquer est dans notre cas beaucoup plus faible. Une
simple corrélation automatique peut convenir, celle-ci peut en outre être optimisée en
maximisant le rapport signal sur bruit de l'interférogramme. L'image qui sert de référence est
qualifiée d'image maître et la seconde d'image esclave.

Comme dans le cas du calcul de la cohérence, nous appelons x1 et x2 les variables représentant
les échantillons complexes des images respectives 1 et 2, et < > est l'opérateur moyenne. En
effet, c'est un candidat efficace pour accroître le rapport signal sur bruit, même si c'est au
détriment de la résolution. L'interférogramme I produit est le suivant :

Équation -11

Équation -12

Si nous normalisons le module de I par une moyenne géométrique des modules moyens des
deux images nous obtenons de nouveau la fonction de cohérence. Il faut noter toutefois que si
le calcul de la cohérence nécessite une fenêtre de moyennage, cela n'est pas indispensable
pour le calcul de l'interférogramme. Le module normalisé de I est donc identique à la
cohérence exclusivement dans le cas ou un traitement multi-vue est appliqué afin de
maximiser le rapport signal sur bruit.

Franges orbitales

La phase obtenue ne représente pas encore le relief ou la déformation de ce relief, il faut en


outre s'affranchir des franges orbitales. En effet, Les différences de phase calculées (équation
3-10) correspondent à la topographie vue dans le plan perpendiculaire à la direction de visée.
Si les orbites sont parallèles, cela correspond à une rampe de phase en distance, ce qui donne
visuellement une suite de franges parallèles à la trajectoire espacées assez régulièrement en
distance : il faut donc soustraire le second terme de l'équation 3-10 pour obtenir le dénivelé ∆
z.

Équation -13

C'est cette expression qui est parfois exploitée pour quantifier le relief, la base orthoradiale est
alors prise comme constante, cependant la formulation exacte est la suivante :

Équation -14

Bien entendu, i est encore l'inclinaison du satellite, si nous souhaitons utiliser l'incidence
locale en prenant en compte la rotondité de la terre, il faut se servir de l'expression 3-8.

Déroulement des phases


Nous avons donc proportionnalité entre phase et dénivellement, malheureusement celle-ci
n'est connue qu'à 2π près. Il faut donc reconstituer la phase dans toute sa continuité. Cette
opération est appelée déroulement de phase (voir figure 3-4).

Figure -4 : Le déroulement de phase

Cette opération est délicate, car elle suppose une variation suffisamment lente de la phase
pour que le déroulement soit convenable. Nous pouvons définir l'altitude d'ambiguïté Ha qui
représente le dénivelé associé à un déphasage de 2π . Pour que le sens de variation de la
phase soit correcte interprété, il est indispensable qu'entre deux pixels consécutifs, le dénivelé
soit inférieur à Ha, d'où la dénomination.

Équation -15

Cette ambiguïté peut être en partie réduite si nous pouvons disposer d'un MNT grossier de la
région. Il suffit de soustraire l'interférogramme que produirait ce relief, pour obtenir un
interférogramme avec beaucoup moins de franges. L'espacement entre ces dernières est alors
plus important, et les cas d'ambiguïtés sur la variation de la phase sont moins nombreux. Il ne
reste plus qu'un relief résiduel à estimer.

Résolutions

La résolution en hauteur est bien entendu d'autant meilleure que l'altitude d'ambiguïté est
faible, puisque la précision sur la phase (en fraction de 2π ) donne une estimation de l'erreur
d'altitude en proportion de l'altitude d'ambiguïté.

En revanche, plus celle-ci est faible, plus les ambiguïtés sont nombreuses. Pour accroître la
précision en hauteur, il est donc indispensable d'améliorer les résolutions au sol afin de
garantir des variations lentes de la phase. Les systèmes aéroportés conviennent fort bien à cet
usage, mais nécessitent des trajectoires parfaitement connues (mesurées pas GPS différentiel).

3.2.2.2 Limitations
Base critique

L'interférométrie comme le calcul de la cohérence ne peut fonctionner que si seule la phase de


trajet a varié. Dans le cas d'une vision stéréoscopique, il faut donc que la phase de
construction et la phase de rétrodiffusion soient identiques sous les deux angles de visée. Or
plus la base orthoradiale est importante, plus la phase de construction diffère. En effet, les
échos renvoyés par les réflecteurs élémentaires ne s'additionnent pas de la même façon selon
l'angle de vue. L'interférométrie stéréoscopique n'est donc apte à évaluer la topographie, que
si la base orthoradiale est inférieure à une base critique.

Ainsi, les ambiguïtés sur la phase n'autorisent pas de mesure de dénivelé entre deux pixels,
supérieur à l'altitude d'ambiguïté Ha. Si nous appelons α la pente locale, alors :

D'où une autre restriction sur la base orthoradiale :

Équation -16

∆ distance est le pas en distance défini dans la section 1.2.1.3

Erreurs de " stéréo " propres au mode multi-passages

Entre deux images acquises simultanément, la variation de trajet est faible et n'est produite
que par la vision stéréoscopique (Nous sommes dans les conditions interférométriques : base
orthoradiale inférieure à la base critique). En revanche, si elles ont été obtenues à des
moments différents, toute modification même minime au niveau de la surface produira une
importante modification de la phase.

En effet, la différence de trajet générée par le déplacement de quelques centimètres d'un


réflecteur, est de l'ordre la longueur d'onde, ce qui produit une rotation complète de la phase.
Le moindre changement d'état de la surface est donc susceptible de générer un déphasage de
l'ordre de l'ambiguïté, et qui au mieux, est interprété comme un fort dénivelé.

Pour produire des MNT, il est donc indispensable que la surface ait très peu changé, c'est
exactement ce que permet d'estimer la cohérence. Toute perte cohérence se manifeste par une
perte de qualité de l'interférogramme. Il est donc invraisemblable de réaliser des
interférogrammes sur une étendue d'eau même très peu agitée ou sur un couvert végétal.

En outre, toute modification du contexte météorologique entre les deux prises a des
répercussions importantes, et est donc un facteur particulièrement limitant.

3.2.2.3 Applications
Les MNT

Nous avons vu que l'interférométrie permet d'estimer le relief d'une région, donc de produire
directement des MNT. Toutefois, l'incertitude sur la phase et l'ambiguïté sur son déroulement
rendent cette technique nettement plus opérationnelle pour la correction de MNT existants
lorsque les acquisitions " stéréo " ne sont pas simultanées.

Interférométrie différentielle
Les limitations présentées dans la section précédente concernaient essentiellement la
technique stéréoscopique, car dans la technique différentielle, ce sont sur les faibles
modifications de la surface que va se porter notre intérêt. La technique interférométrique reste
délicate sur une étendue d'eau ou un couvert végétal, mais devient remarquable, sur les sols
nus. Les conditions de prise de vue étant cette fois identiques (ou rendues similaires par
calcul), seuls des mouvements du sol entre les deux acquisitions peuvent produire un
déphasage. Des modifications d'altitude inférieures à la longueur d'onde peuvent donc être
mesurées.

Cette technique autorise donc des résultats impressionnants de mesure de mouvement de


surface avec des précisions centimétriques, voire millimétriques sur des surfaces
kilométriques :

• Gonflements et dégonflements de volcans avant et après éruptions.


• Mouvements de glaciers.
• Déformations dues aux séismes.[MASSONNET93]
• Affaissements de sols produits par des stations de pompage d'eau ou des puits de
pétrole.

Artefacts météorologiques

Les changements de conditions atmosphériques sont les éléments les plus perturbateurs de la
technique interférométrique, toutefois il est parfois possible de s'en affranchir. Si trois
acquisitions remplissant les conditions interférométriques deux à deux sont disponibles pour
un lieu donné, il est possible d'extraire par corrélation l'artéfact météo.[SARTI98].

See Also:

3.1.2 Aspect quantitatif

4 Références
Ces quelques références ne constituent en aucun cas une base bibliographique, seule une
partie des éléments ayant servis a l'élaboration de ce synopsis y sont reportés.

[ADRAGNA98_1] Adragna Frédéric ; " Interprétation des images radar ", cours au GDTA.

[ADRAGNA98_2] Adragna Frédéric ; " Interférométrie radar ", cours au GDTA.

[ADRAGNA98_3] Adragna Frédéric ; " Radars à synthèse d'ouverture, le traitement de


synthèse ", cours au GDTA.

[ARNAUD97] Arnaud Alain ; " Etude et analyse des artefacts dans la construction de
l'image interférométrique radar ", Thèse de l'INPT, laboratoire LIMA-IRIT (ENSEEIHT),
1997.

[GRANDJEAN99] GrandJean Gilles ; présentation informelle au CNES de travaux sur la


pénétration des ondes en bande P, 1999.
[GUGLIELMI95] Guglielmi V., Castanié F., Piau P. ; " Applications de méthodes super-
résolvantes au traitement des données d'un radar à synthèse d'ouverture ", 15ème colloque
GRETSI, Juan les pins, pp 1097-1100, 1995.

[LEBEDEFF95] Lebedeff Dimitri ; " Etude de la quantification vectorielle des données


brutes issues d'un radar à synthèse d'ouverture ", Thèse de l'université de Nice-Sophia
Antipolis, 1995.

[MASSONNET93] Massonnet D., Rossi M., Carmona C., Adragna F., Peltzer G., Feigl
K., Rabaute T. ; " The displacement field of the landers earthquake mapped by radar
interferometry ", Nature, vol 364, pp 138-142, July 1993.

[POLIDORI97] Polidori Laurent ; " Cartographie radar ", Gordon and Breach science
Publishers, 1997.

[RIBBS98] Ribbs Florence ; " Utilisation des données radar pour le suivi des rizières :
cartographie, suivi et estimation du rendement ", thèse de l'université Paul Sabatier III,
télédétection appliquée à la végétation, décembre 1998.

[SARTI98] Sarti Francesco ; " Applications et limitations de l'interférométrie radar :


quelques exemples pour le SAR de ERS ", Rapport de stage du DESS " Télédétection et
Imagerie Numérique "

[TOUZI96] Touzi R., Lopes A., Bruniquel J., Vachon P. ; " Unbiaised estimation of the
coherence from multi-look SAR data ", IEEE , page 662-664, 1996.

[ZONG96] Zong-Guo Xia, Yongwei Sheng ; " Radar speckle : noise or information ? ",
IEEE , page 48-50, 1996.

Вам также может понравиться