Академический Документы
Профессиональный Документы
Культура Документы
La compression d'impulsion (en anglais, pulse compression) est une technique de traitement
du signal utilisée principalement dans le domaine du radar, du sonar et en échographie afin
d'augmenter la résolution en distance de la mesure ainsi que le rapport signal sur bruit, par
modulation du signal émis[1].
Dans la suite de notre développement, l'application sera le radar mais le lecteur pourra
aisément généraliser aux autres applications, la théorie restant la même.
Sommaire
[masquer]
• 1 Impulsion simple
o 1.1 Forme du signal
o 1.2 Résolution en distance
o 1.3 Énergie à fournir pour émettre ce signal
• 2 Compression d'impulsion par modulation linéaire de fréquence
o 2.1 Principe général
o 2.2 Intercorrélation entre le signal émis et le signal reçu
o 2.3 Augmentation du rapport signal à bruit par compression d'impulsion
• 3 Compression d'impulsion par codage de phase
• 4 Notes
Le signal le plus simple que peut émettre un radar à impulsions est un train de signaux
sinusoïdaux, d'amplitude A et de fréquence f0, tronqué par une fonction porte de longueur T,
se répétant identiquement à eux-mêmes à une certaine période qui nous intéresse peu ici. On
considère ici une seule impulsion s. A supposer que cette impulsion est émise à la date t = 0,
le signal s'écrit analytiquement de la manière suivante, en notation complexe :
Déterminons la résolution en distance que l'on peut obtenir avec ce type de signal. Le signal
qui revient vers le radar, noté r(t) est une copie retardée et atténuée du signal émis (en réalité
elle peut aussi être légèrement déphasée par effet Doppler, mais on laisse cela de côté pour le
moment). Il y a également du bruit sur les deux voies réelles et imaginaires, que l'on va
prendre comme étant blanc et gaussien (ce qui est généralement vrai dans la réalité); on note
B(t) ce bruit. Pour détecter le signal reçu, on va utiliser le filtrage adapté, qui optimise le
rapport de signal à bruit lorsque l'on veut détecter un signal connu dans du bruit blanc
gaussien.
Concrètement, on calcule l'intercorrélation du signal reçu avec le signal émis (ce qui revient à
la convolution avec le signal conjugué et temporellement retourné dans le temps). Cette
opération peut se faire également de manière électronique. Soit < s,r > (t) cette
intercorrélation. On a :
Supposons que le signal réfléchi revient à la date tr et est atténué d'un facteur K, on a :
où B'(t), résultat de l'intercorrélation du bruit avec le signal émis, reste un bruit blanc gaussien
de même variance que B(t) car il n'est pas corrélé avec le signal émis. La fonction Λ est la
fonction triangle, valant 0 sur , croissant linéairement de -1/2
à 0 où elle atteint la valeur 1, et décroissant linéairement de 0 à 1/2 pour valoir de nouveau 0.
Les figures au bout de ce paragraphe montrent un exemple pour un signal émis réel en sinus,
de durée T = 1 seconde, d'amplitude unité, et de fréquence f0 = 10 hertz (en rouge). On laisse
figurer deux échos (en bleu) décalés de 3 et 5 secondes, respectivement, et d'amplitudes 0,5 et
0,3. L'autocorrélation du signal émis a bien une enveloppe en triangle (vu que le signal est
réel, l'intercorrélation est pondérée par un facteur 1/2 supplémentaire).
Sachant que la distance parcourue de l'onde durant T est c.T, mais que cette distance est un
trajet aller-retour, on en conclut que :
Résultat 1
La résolution en distance atteignable avec une impulsion sinusoïdale est où T est la durée
de l'impulsion et c la célérité de l'onde.
La puissance instantanée du signal émis est égale à P(t) = | s | 2(t). L'énergie fournie est égale
à:
D'une manière similaire, l'énergie du signal reçu vaut Er = K2A2T. Si σ est l'écart-type de
l'amplitude du bruit, le rapport signal à bruit à la réception est égal à :
On voit que le rapport signal à bruit augmente avec la longueur de l'impulsion, tous autres
paramètres restant égaux par ailleurs. La conclusion est que pour que le signal reçu puisse
rester exploitable, l'impulsion émise doit rester suffisamment longue, ce qui va à l'encontre du
pouvoir de résolution.
Comment avoir une impulsion longue (afin de conserver une bonne énergie à la réception)
sans pour autant avoir une résolution trop mauvaise ? Tel est le but de la compression
d'impulsion. Son principe est le suivant :
• on génère un signal dont le support temporel est relativement long pour ménager le
budget énergie
• on forge ce signal de telle manière à ce qu'après filtrage adapté, la largeur de
l'intercorrélation entre le signal reçu et le signal émis est inférieure à celle obtenue
avec la simple modulation sinusoïdale, comme exposé ci-dessus.
Dans les applications radar ou sonar, le chirp linéaire est souvent le signal utilisé pour réaliser
la compression d'impulsion. L'impulsion étant de durée finie, l'amplitude est une fonction
porte. Si le signal est de durée T, débute à t = 0 et balaie la bande Δf centrée sur f0, ce signal
s'écrit :
Étant donné que cette intercorrélation est égale, à une translation et à une atténuation d'un
facteur K près, à l'autocorrélation de sc', c'est celle-ci que l'on considère :
On montre[2] que la fonction d'autocorrélation de sc' vaut :
dB est plus ou moins égale à . Tout se passe donc comme si après compression
d'impulsion, on avait la résolution d'une impulsion simple de durée T' qui, pour les choix
courants de Δf, est plus petite que T, ce qui justifie le nom de compression d'impulsion.
Dans la mesure où le sinus cardinal peut avoir des lobes secondaires importants, il est d'usage
d'apodiser le signal par convolution du résultat du filtrage adapté avec une fenêtre de type
Hamming ou Hann (en pratique, cette étape peut se faire en même temps que le filtrage adapté
en multipliant le chirp de référence par la fenêtre avant corrélation). Le résultat de
l'apodisation se traduit par une perte de l'amplitude maximale du signal détecté mais les lobes
secondaires sont beaucoup plus atténués.
Résultat 2
La résolution en distance atteignable avec un chirp linéaire modulé sur une bande Δf est:
où c la célérité de l'onde
Définition
Le rapport T / T' = TΔf est le rapport de compression, il est généralement supérieur à 1 (de
l'ordre de 20 à 30).
Démonstration (impulsion chirpée): signal émis en rouge (fréquence porteuse 10 hertz,
modulation sur 16 hertz, amplitude 1, durée 1 seconde) et deux échos atténués (en bleu).
à présent localisée dans le pic principal du sinus cardinal, qui a une largeur . Si P
est la puissance du signal avant compression et P' la puissance du signal après compression,
on a donc :
ce qui donne :
D'autre part, le bruit et le signal émis n'étant pas corrélés, la puissance du bruit ne change pas
par filtrage adapté. Par conséquent :
Résultat 3
La compression d'impulsion permet d'augmenter le gain en puissance après filtrage d'un
rapport égal au taux de compression, T.Δf
Démonstration: même signaux que plus haut, plus bruit additif blanc gaussien (σ = 0.5)
Avant filtrage adapté: le signal est noyé dans le Après filtrage adapté: les échos sont encore
bruit visibles.
Notes [modifier]
1. ↑ J. R. Klauder, A. C, Price, S. Darlington and W. J. Albersheim, ‘The Theory and Design of Chirp
Radars,” Bell System Technical Journal 39, 745 (1960).
2. ↑ Achim Hein, Processing of SAR Data: Fundamentals, Signal Processing, Interferometry, Springer,
2004 (ISBN 3-540-05043-4), p. 38 à 44.
Démonstration très rigoureuse de l'autocorrélation du signal chirp et de ses propriétés. Noter que l'auteur divise son
autocorrélation par deux, ce que nous ne faisons pas ici.
3. ↑ J.-P. Hardange, P. Lacomme, J.-C. Marchais, Radars aéroportés et spatiaux, Masson, Paris, 1995
(ISBN 2-225-84802-5), p. 104
Chirp
Un chirp (mot d'origine anglaise signifiant « gazouillis ») est par définition[1] un signal
pseudo-périodique c modulé en fréquence autour d'une fréquence porteuse et également
modulée en amplitude par une enveloppe a dont les variations sont lentes par rapport aux
oscillations de la phase φ:
c(t) = a(t)eiφ(t)
c(t) = a(t)cosφ(t)
Dans les applications radar ou sonar le chirp linéaire est souvent le signal utilisé pour réaliser
la compression d'impulsion. L'impulsion étant de durée finie, l'amplitude est une fonction
porte. Si le signal est de durée T, débute à t = 0 et balaie la bande de fréquence Δf centrée sur
f0, ce signal s'écrit:
et presque 0 ailleurs.
Exemple de chirp
Application en neuroscience
Le chirp peut être utilisé pour tester les propriétés de résonance d'un système. L'avantage
principal étant que l'on peut voir approximativement la fréquence de résonance du système
avant même d'analyser la réponse au signal par une transformée de Fourier.
Lecture suggérée:
Terminologie francophone
Le praticien radar ou sonar utilisera volontiers le terme de chirp même en français, et des
néologismes tels que le verbe chirper sont fréquemment entendus dans le milieu. Etant donné
que le chirp usuel n'est qu'une impulsion modulée en rampe de fréquence, cette dernière
expression est également utilisée. Il ne faut pas confondre, par contre, chirp et compression
d'impulsion (en anglais: pulse compression) dans la mesure où le premier terme est l'outil et le
second une application.
1.1 Le radar
1.1.1 Principes de l'émission
1.1.1.1 L'antenne radar
Considérons une ouverture plane rectangulaire de dimensions . Elle est traversée par
Équation -1
Équation -2
La directivité de l'antenne est donc d'autant plus forte que la longueur d'onde est petite ou que
la taille de l'antenne est grande dans le plan étudié. Une antenne très longue produira donc un
faisceau radar très pincé dans cette direction mais en contrepartie, très ouvert dans le plan
orthogonal (figure 1-3 ) La dynamique du diagramme d'antenne est telle que les contributions
des lobes secondaires sont en général négligées.
Quelles que soient les spécificités du radar (modulation de fréquence ou non, ...), le train
d'onde produit est caractérisé par la fréquence de la porteuse. Compte tenu de l'équation 1-2,
les ondes hyperfréquences ou micro-ondes autorisent la réalisation d'antennes de directivités
intéressantes.
Les fréquences radar partagent les bandes UHF[1] et SHF[2] avec d'autres applications
industrielles : télévision, four à micro-onde, télécommunications, ... (Figure 1-4 ). Ce domaine
fréquentiel est subdivisé en 7 bandes, dont les plus utilisées en radar sont les bandes C, L pour
les systèmes spatiaux, et X, C , L pour les systèmes aéroportés (Tableau 1-1 : Bandes radar).
⇒ La source est unique et totalement cohérente : des phénomènes d'interférence sont donc
possibles
• Les longueurs d'onde sont considérablement plus grandes que celles du domaine
visible :
⇒ L'onde est très peu sensible à l'état des couches atmosphériques traversées (nuages,
humidité, température) : possibilité de travailler par tous temps.
⇒ Les plus grandes longueurs d'ondes sont susceptibles de traverser ou pénétrer certaines
couches de surface : forêts, sable sec, ...
⇒ La part d'énergie renvoyée est inhérente de la pente et la rugosité : la réflexion est très
importante, et des réflexions multiples sont possibles.
Compte tenu des spécificités énoncées précédemment, l'onde traverse l'atmosphère sans trop
d'altérations :
Seules les modifications de phases sont donc susceptibles d'avoir des conséquences notables,
comme cela sera explicité dans la section 3.2 de la page 49.
, ,
avec
où est la vitesse relative de la cible par rapport à l'antenne, et le rayon vecteur les reliant.
Coins réflecteurs
Nous savons que l'onde radar est particulièrement sensible à la géométrie de la surface, ainsi
un coin réflecteur constitue un objet extrêmement rétrodiffusant. Comme l'indique la figure 1-
6, quel que soit l'angle d'incidence de l'onde, toute l'énergie est rétrodiffusée, exceptée bien
entendu celle absorbée par le corps.
La forte radiométrie du coin réflecteur est amplifiée par un second phénomène : Le radar ne
perçoit que les distances, or la distance parcouru par l'onde est strictement identique quelque
soit la position où elle frappe l'objet. L'écho total renvoyé est donc interprété comme
provenant de la base du coin réflecteur quelque soit ses dimensions.
L'antenne de réception est ordinairement la même que celle qui a émis l'impulsion
hyperfréquence. Le système doit donc alterner entre des phases d'émission et de réception afin
de réceptionner les échos radar. C'est ce que permet le circulateur en dirigeant chaque signal
entrant vers la sortie suivante (figure 1-7 ).
Mais l'antenne réceptrice peut être différente de l'antenne émettrice, afin d'étudier des
polarisations croisées ou de produire des interférogrammes (voir la section 3.2.2.1). Toutefois,
dans tous les cas, le principe de la réception reste le même :
Équation -3
La technique la plus usitée est de corréler le signal reçu avec le signal de modulation : c'est le
filtrage adapté. Elle maximise le rapport signal sur bruit. Toutefois, si le signal est
suffisamment fort, il est possible d'utiliser des techniques dites super-résolvantes
[GUGLIELMI95] qui dégradent la qualité de l'information en amplitude mais accroissent la
résolution temporelle et donc la localisation (section 2.2.2.1).
Les premiers radars que l'on pourrait qualifier de radars imageurs étaient fondés sur le
principe qu'une antenne rotative, peut fournir une vision angulaire et radiale de l'espace
environnant (Figure 1-8 ) :
• L'indication de distance est fournit par la mesure du temps écoulé entre le départ de
l'impulsion et la réception de l'écho.
Figure -8 : Vision en distance et en azimut d'un radar
• L'antenne très directive en azimut balaye 360 deg dans le plan associé.
Quoique parfaitement adapté à des applications militaires de type détection de cibles, d'objets
volants ; cette technique ne fournit pas de résolutions suffisantes et de représentation adéquate
pour des applications civiles de type imagerie. Cependant le SLAR[4] en est directement
inspiré.
1.2.1.2 Le SLAR
L'objectif est d'obtenir une image (orthonormale de préférence) d'une surface au sol. Une
antenne est donc placée à dessein, à bord d'un satellite ou d'un avion. Elle est orientée
latéralement au porteur qui se déplace parallèlement à la zone à imager (Figure1-9 ).
L'antenne est orientée latéralement plutôt que verticalement pour une raison triviale : le radar
ne distingue les cibles que par leur distance. A la verticale du lieu, les distances sont
sensiblement les même donc les points ne sont pas discernables. Egalement, deux points
situés de part et d'autre de la verticale du radar sont équidistants donc confondus.
Remarque :
Dans notre construction de la figure 1-9 , pour des raisons de lisibilité, i désigne l'angle de
dépointage de l'antenne par rapport à la verticale, mais à grande distance, la courbure de la
terre intervient, et i doit être pris au niveau de la cible. C'est alors l'angle d'incidence de
l'onde, par rapport à la verticale.
L'imageur radar ne fournit pas une image mais deux images, une image d'amplitude et une
image de phase (ou plus s'il y a une information de polarisation). Toutefois, seule la
radiométrie constitue une information naturellement appréciable. L'emploi du terme "image
radar " désigne donc généralement l'image d'amplitude.
Dimensions :
Le système d'acquisition échantillonne et numérise les signaux reçus. Le signal est donc
quantifié et discrétisé. Le nombre d'étages de quantification est généralement de quelques bits.
La largeur de l'image en distance est caractérisée par sa fauchée, en revanche la taille en
azimut ne sera limitée, que par le temps total maximum d'acquisition, c'est à dire par des
contraintes de mémoire pour les systèmes embarqués, et par la bande passante du canal de
retransmission des données.
Équation -4
Équation -5
Remarque : Le pas entre pixels dans l'axe des distances, dépend véritablement au niveau du
sol de l'angle d'incidence local effectif entre la verticale du point au sol et l'onde. En
conséquence, le pas de pixel varie en distance.
Si de prime abord, la géométrie d'une image radar peut apparaître similaire à celle d'une
image issue de techniques optiques, les projections associées sont cependant fort différentes.
En effet, tous les points situés à même distance pour une position azimutale déterminée, sont
confondus en une seule projection. Quatre effets observables sur la figure 1-10 en résultent :
• Avancée du relief : L'écho renvoyé par une zone montagneuse précède celui de sa
base. Les points C et E ont leurs projections respectives C' et E' inversées par rapport à
leurs positions réelles au sol. Les objets, surfaces en relief pointent vers le radar.
• Layover ou recouvrement : Des points appartenant a des zones de relief distinctes (Par
exemple B et E) sont confondus en radar alors qu'ils seraient aisément différenciables
en optique.
• Foreshortening[5] (ou raccourcissement) et Forte rétrodiffusion des pentes parallèles à
l'onde (C - D) : elles offrent une surface plus importante à l'onde, le nombre de
réflecteurs est donc supérieur pour une distance donnée. A cela se combine le fait
décrit page 9, selon lequel l'antenne se trouve dans la direction de réflexion. En outre,
l'image apparaît localement comprimée (racourcissement).
En revanche, comme en optique, les points situés dans la zone d'ombre ne fournissent pas
d'échos.
Cette projection particulière fausse un peu le jugement pour la perception du relief. Il apparaît
alors de commode de se représenter le système radar en un système optique équivalent (figure
1-10). En effet, à grande distance :
• De même les divisions angulaires d'un système optique, peuvent être assimilées à des
parallèles.
L'image radar fournie par un seul canal de fréquence est plus riche d'information qu'en
optique, toutefois celle-ci est souvent plus difficilement exploitable :
Amplitude :
Afin réduire ces fluctuations aléatoires, des techniques de filtrage sont appliquées. Les plus
fréquemment usités, extraient une moyenne de plusieurs images. C'est la solution dite du
multi-temporel. De nouvelles techniques en cours de validation, vise à minimiser l'effet de
l'instrumentation et du procédé d'acquisition par décorrélation des pixels voisins.
Phase :
Équation -6
Polarisation :
Si les dimensions et pas de l'image sont dimensionnées par les fréquences caractéristiques du
dispositif d'acquisition (PRF, Fe), la résolution réelle en est indépendante. Toutefois les
systèmes imageurs sont généralement conçus de manière à faire coïncider ces deux grandeurs,
ce qui évite une redondance de l'information et garantit une exploitation maximale des
performances du système.
Azimut :
Équation -7
où d est la distance du radar à la zone à imager. Cette technique n'autorise donc pas de
résolutions inférieures à la dizaine de kilomètres pour les plates-formes satellitaires, ou à la
centaine de mètres pour les systèmes aéroportés.
Distance :
Ce qui contraint la résolution en distance du dispositif est la durée de l'impulsion radar émise.
En effet, considérons un train d'onde hyperfréquence de durée τ . Pour pouvoir discerner les
échos de deux cibles considérées comme ponctuelle, le délai les séparant doit être bien
entendu supérieur ou égal à τ .
Comme le montre la figure 1-12 , le deuxième écho parcourt deux fois la distance A-B, ainsi
la différence de trajet entre les deux trains d'onde est de 2d. La résolution en distance est donc
le chemin parcouru par l'impulsion au cours d'un temps τ /2
Équation -8
Le facteur contraignant est maintenant la durée de l'impulsion radar. Malheureusement, il est
techniquement délicat de mettre en oeuvre des trains d'onde d'un laps de temps inférieur à la
micro seconde ; car il faut alors concentrer un maximum d'énergie dans l'impulsion, pour
espérer avoir des échos d'amplitudes significatives. On obtient assez difficilement par cette
méthode des résolutions inférieures à la centaine de mètres. Cependant le satellite russe
Almaz était capable d'atteindre une résolution proche de 7 m avec des impulsions de 490kW
en crête et d'une durée de quelques nanosecondes.
Nous observons toutefois que la résolution en distance est indépendante à l'altitude du porteur.
Il faut de nouveau prendre en compte l'angle d'incidence i de l'onde pour obtenir une
résolution au sol équivalente.
Équation -9
1.2.3.3 Ambiguïtés
Les ambiguïtés étudiées ici sont celles produites dans le cas où le porteur serait un satellite.
En effet, dans cette situation la distance et l'ouverture de l'antenne sont telles, que la durée
totale de la phase de réception des échos renvoyés par une zone est bien plus courte que leur
temps d'aller-retour. Afin d'exploiter au maximum la bande passante du canal radar, les
impulsions sont alors émises à un rythme plus important que celui associé au temps d'aller-
retour du signal radar. Le dispositif alterne toujours entre les modes émission et réception
mais ajuste ses délais de façon à ce qu'une ligne d'échos arrive dans une phase de réception.
Toutefois l'impulsion correspondante a été émise longtemps auparavant (Figure 1-13 )
Une mauvaise calibration ou une erreur d'association entre impulsion et écho sera à l'origine
d'ambiguïtés de localisation.
Ambiguïté en azimut :
Si celle-ci est mal connue, le lieu imagé ne sera pas celui attendu. Mais surtout, le lobe
principal " éclairant " tout de même la zone étudiée ; des échos risquent de revenir plus tôt ou
plus tard et donc pendant une autre phase d'acquisition. Ils seront donc associés à une autre
ligne, c'est à dire à une autre position azimutale.
Egalement, des surfaces à forts dénivelés retourneront des signaux très décalés dans le temps,
et de nouveau les positions azimutales pourront être mal attribuées. Toutefois, la PRF, et les
distances sont telles que ce genre de phénomène est normalement impossible.
Ambiguïté en distance
En outre, même si les paramètres de l'acquisition ont été calibrés de manière suffisante pour
imager la zone souhaitée, la connaissance approchée et à priori de la distance de la zone
étudiée, est de nouveau capitale pour traiter les données.
En effet, cette information ne peut être extraite du signal reçue, elle est donc requise pour
effectuer la bonne correspondance entre impulsion de départ et écho reçu, sous peine de
Bien que la contribution des lobes secondaires soit généralement négligée, celle-ci peut être
nuisible dans certaines conditions :
• Présence d'une cible particulièrement réfléchissante dans la zone imagée. Les lobes
secondaires de la réponse impulsionnelle provoqueront un étalement de la cible sur les
pixels voisins en azimut. Cet effet peut être annulé par dé-convolution. Bien que
pouvant impliquer des problèmes de localisation, il s'agit d'un problème d'aliasing
plutôt que d'ambiguïté.
• L'inclinaison de l'antenne est telle qu'un des lobes secondaires pointe la verticale du
lieu. Ainsi qu'il a été expliqué précédemment, une surface perpendiculaire à la
direction d'irradiation constitue un réflecteur particulièrement efficace. L'écho arrivant
décalé en distance par rapport au reste de l'image, les paramètres de l'acquisition
doivent être ajustés de manière à ce qu'il ne revienne pas pendant une phase
d'acquisition.
See Also:
La section 1.2.3.2 a mis en évidence les faiblesses du radar en matière de résolution. Mais
celui-ci bénéficie d'une double information d'amplitude et de phase qui n'a pas été réellement
mise à profit jusqu'ici.
Les premiers radars visaient à la détection de cibles dans un rayon d'action assez court
comparé au radar spatial. Le facteur limitant était alors la technicité requise pour produire une
impulsion de courte durée, et de forte amplitude. Les premiers travaux visèrent donc à réduire
ce laps de temps, et aboutirent au principe de la compression d'impulsion.
Le concept a été effleuré dans la section 1.1.3.3. Il consiste à envoyer une impulsion modulée
linéairement en fréquence et à la corréler au signal retourné. L'effet résultant est qu'une cible
ponctuelle produit un sinus cardinal lorsque l'impulsion a une densité spectrale sensiblement
constante (Figure 2-1 ). De plus celui-ci est d'autant plus étroit que la largeur de bande est
grande. Le temps τ de l'impulsion comprimée est alors (largeur du lobe principal à ):
Figure -1 : principe du filtrage adapté ou de la compression d'impulsion
Équation -1
Nouvelle résolution :
Équation -2
Avec B de l'ordre de Fe, nous remarquons que la résolution en distance est du même ordre de
grandeur que le pas en distance défini par l'équation 1-5. Toutefois, si le signal est fort, les
lobes secondaires du sinus cardinal produiront un étalement de la cible en distance. Les forts
réflecteurs auront tendance à " baver ".
Remarque : L'impulsion modulée en fréquence est souvent désignée sous le nom de chirp[7].
En effet, si des vibrations acoustiques étaient associées aux échos radars, une oreille sensible
aux hautes fréquences entendrait une sorte de gazouillis perpétuel.
Le facteur limitant en azimut est la trop grande ouverture de l'antenne. La solution la plus
simple est d'accroître la taille de l'antenne, mais les ssytèmes aéroportés et spatiaux ne
peuvent s'accommoder de dispositifs aux dimensions insolites.
L'information la concernant se retrouve donc répartie sur plusieurs lignes mais si une méthode
permettait de soustraire la contribution des autres cibles, il serait possible de synthétiser une
antenne beaucoup plus grande, et par là même d'obtenir une antenne virtuelle, extrêmement
directive. C'est le principe même de la compression en azimut (fig 2-3 ).
La difficulté à lever est donc d'isoler le signal produit par une cible quelconque tout au long
du parcours en azimut. La première méthode qui peut venir à l'esprit est celle basée sur une
résolution d'un ssytème d'équations. En effet, à chaque déplacement du porteur, une nouvelle
cible entre dans le champ du lobe principal, mais une autre en sort. Nous disposons donc
d'une mesure différentielle des échos de deux cibles distants de la largeur du champ. Si
chaque cible est vue n fois par l'antenne, la méthode revient à résoudre des séries de n
équations à n inconnues (En effectuant quelques conjectures sur les solutions). Outre l'énorme
volume de calcul que cela peut représenter, ces techniques numériques manifestent des
problèmes de stabilité. D'autres procédés sont donc employés, fondés sur une propriété du
signal renvoyé.
Déphasage en azimut :
Comme le montre la figure 2-3 , la distance parcourue par l'écho pour arriver jusqu'à l'antenne
varie le long du trajet. Cet écart de distance engendre une variation de phase du signal par
rapport à l'oscillateur local. C'est cette signature qui va être exploitée. Si nous prenons comme
référence de position en azimut, x=0 le moment où le radar est au plus proche de la cible, la
distance d varie de la façon suivante :
Équation -4
Équation -5
soit Équation -6
où est la vitesse relative du satellite par rapport au sol. Le décalage fréquentiel obtenu est
fonction de la progression en azimut, si θ est l'angle sous lequel est vue la cible par rapport à
la direction pointée par l'antenne, alors .
Équation -7
Équation -8
L'hypothèse Stop and Go qui est le cadre du calcul de la section " Figure 2-3 : Antenne
virtuelle équivalente
Déphasage en azimut :
" est en réalité une modélisation de l'effet Doppler en azimut. La formule 2-4 supposait :
Ce qui n'est bien entendu pas le cas. Cette approximation est appelée l'hypothèse Stop and Go.
Nous savons qu'en général il se déplace de manière continue, cette simplification peut donc
conduire à des erreurs de localisation ou de compression, cependant son impact est au premier
abord négligeable, et ne change rien au principe de la synthèse.
Nouvelle résolution :
L'excursion maximale en fréquence est obtenue sur les bords du diagramme d'antenne (θ =±
∆ θ /2). Cela correspond généralement à un effet Doppler autour du millier de Hertz. C'est
cette variation en fréquence du signal qui permet d'extraire l'information étalée en azimut pour
chaque cible. Il suffit d'appliquer un traitement similaire à la compression en distance.
La largeur de bande du signal produit est donc celui de l'effet Doppler, ce qui, conformément
à la formule 2-1 donne une largeur d'impulsion :
Équation -9
Cette équation est à rapprocher du pas en azimut de l'image (formule 1-4). D'une manière
générale, la fréquence de la porteuse et l'ouverture de l'antenne sont ajustées telles que
B/0,885 soit du même ordre que la PRF, la résolution en azimut est alors proche de celle de
son pas. B étant la largeur de bande de l'effet Doppler, son expression réelle est :
Équation -10
Migrations paraboliques :
Ainsi que le représentait la figure 2-3 , la distance de la cible à l'écho varie le long du trajet.
Ce phénomène a bien entendu des répercussions sur l'image et les contributions doivent donc
être réalignées (figure 2-4). Bien entendu il sera d'autant plus important que l'ouverture de
l'antenne est grande et que la résolution en distance est petite. Pour les ssytèmes spatiaux, la
migration est de l'ordre de quelques pixels et peut parfois être négligée (par exemple pour le
satellite ERS).
Migrations linéaires
Egalement, dans certaines circonstances, une migration linéaire des échos peut être observée :
• L'antenne ne pointe pas tout à fait dans la direction perpendiculaire à la trajectoire. Les
bornes de variations de la parabole de phase décrite dans l'équation 2-4 ne sont plus
les mêmes. Ce qui revient à ajouter une migration linéaire à la migration parabolique.
• Le porteur ne se déplace pas tout à fait à distance constante du sol (Orbite de satellite
excentrée, imprécision de trajectoire du porteur). Cette variation de distance est
généralement approchée par une migration linéaire sur l'image.
• La terre tourne durant l'acquisition de l'image. Le vecteur de la vitesse relative du
porteur par rapport au sol, n'est plus perpendiculaire à la direction visée par l'antenne.
Ceci est donc équivalent à un dépointage de celle-ci.
La migration linéaire peut donc toujours être assimilée à une mauvaise orientation de
l'antenne, ce que l'on caractérise par un " angle de dépointage " avant ou arrière.
• Le diagramme d'antenne n'est pas constant dans la direction de visée. Dans les
directions de début et fin de fauchée, la puissance émise et la sensibilité de l'antenne
est donc plus faible. Cela induit des réductions d'amplitudes à la distance proximale et
à la portée distale mais elles sont normalement infimes.
• La puissance de l'onde est inversement proportionnelle au carré de la distance et donc
théoriquement, la radiométrie diminue également avec la distance, mais en pratique,
les distances sont telles que ces variations sont imperceptibles.
• Chaque point de l'image synthétisée est la somme des contributions répartie en
distance et en azimut. Les points situés en bord d'image ne bénéficient donc que d'une
partie de l'information. La radiométrie du bord de l'image est donc moins importante.
• Le procédé de synthèse engendre par sommation une dynamique de signal très étalée,
qu'une représentation en niveau de gris est incapable de restituer correctement. Les
méthodes visant une modification de l'histogramme d'amplitude ne sont pas totalement
satisfaisantes (saturations, altération de l'information), les plus récents travaux
cherchent donc à exploiter au maximum la sensibilité radiométrique et spectrale de
l'oeil.
La figure 2-5 montre que des points qui au sol, ne sont pas alignés (dans la direction
perpendiculaire à la trajectoire), sont assignées à la même position azimutale dans l'image
radar. Il faut décaler les colonnes en fonction de la distance pour corriger cette distorsion.
Ce traitement est schématisé sur la figure 2-6. La cible n'est plus focalisée au milieu de son
étalement en azimut comme il serait tentant de le faire (traitement dit " à Doppler moyen ")
mais à la position azimutale qu'occupe le porteur au moment où l'effet Doppler est nul
(traitement dit " à Doppler nul "). Nous pouvons observer que la cible ne se trouve pas
nécessairement dans le lobe d'antenne à l'instant du Doppler zéro.
Figure -6 : Focalisations à Doppler moyen et à Doppler nul
Projection au sol
L'image générée n'est pas encore superposable avec une carte ou une photo de la surface sol.
En effet, la composante distance (ou slant range[8]) ne peut être directement assimilée à une
position au sol, puisque la projection associée est inclinée. Les distances vont donc être
converties en terme de distance au sol (ou ground range[9]) par une simple division par .
Il faut toutefois se souvenir que i est l'angle local d'incidence, mais pour une petite surface,
l'angle moyen d'incidence peut répondre aux critères de précision.
Référentiels géographiques
La géométrie obtenue est alors rigoureusement identique à celle du terrain, cependant afin de
pouvoir la superposer à celle d'un MNT[10] ou d'une photo, un nouveau traitement est
indispensable. Les coordonnées sont transposées dans l'espace du référentiel géographique
(référentiels de Lambert, ED87, WGS84, ...), l'image est ensuite plaquée sur la projection
associée (projection UTM[11], conique, elliptique, ...).
See Also:
C'est la connaissance à priori des excursions fréquentielles du signal retourné qui permet de
synthétiser l'image radar haute résolution. Cette variation est produite par la modulation de la
porteuse en distance, et par effet Doppler en azimut. Les techniques de compression
appliquées sont basées sur un calcul de corrélation avec le signal attendu. Le procédé de
synthèse SAR traitant toujours des données complexes est totalement réversible.
En outre, le traitement de synthèse du SAR en azimut implique une autre hypothèse qui n'a
pas été énoncée explicitement : invariance de la phase d'une cible exceptée celle de trajet. En
effet, selon l'angle d'éclairement de la cible, ou les écarts météorologiques au cours du
déplacement du porteur, le déphasage avec l'oscillateur local pourrait varier de manière
imprévisible (voir équation des phases 1-6, page 17); toutefois cela n'est heureusement pas le
cas, l'angle d'ouverture de l'antenne étant inférieure au degré et le temps total d'éclairement
inférieur à la seconde.
Les SLAR fonctionnant selon ce principe sont appelés Radars à Synthèse d'Ouverture (RSO,
ou SAR[12] en anglais). Les imageurs étudiés dans le premier chapitre, n'exploitent pas cette
technique et sont désignés par l'acronyme anglais RAR[13]. Il n'existe pas de RAR spatiaux en
raison de leur trop faible puissance à haute résolution.
Les étapes décrites précédemment sont résumées sur la figure 2-9 page 1. Une image Radarsat
de Montréal prise le 19 avril 1998 illustre le procédé de synthèse d'une image de RSO à partir
de données brutes. Nous pouvons constater que :
• Une image brute ne permet d'observer aucune structure (ou presque), quelle que soit sa
taille. A peine est-il possible de déceler la trace du fleuve St Laurent. Plutôt que brute,
l'image semble bruitée.
• La place du fleuve en distance a changé sur l'image synthétisée : dû au choix du point
de focalisation.
• Sans correction des migrations, pour Radarsat, l'image générée est de piètre qualité.
• Le speckle gène l'interprétation de l'image.
Le traitement de synthèse consiste, nous le savons, à rassembler les contributions d'une cible
étalée en distance et en azimut. Plus elles seront nombreuses, plus l'information concentrée en
un point sera exacte. L'image correcte finale est donc plus petite que l'image brute. (Voir
figure 2-8). L'étalement de la cible en azimut s'accroît avec la distance, l'image fidèlement
restituée n'est donc pas exactement rectangulaire (phénomène très nettement exagéré sur la
figure).
Inversement, les données brutes en bord d'image contiennent une portion d'information sur
des points hors de la zone étudiée. Il donc envisageable d'exploiter cette information
supplémentaire pour construire une image plus grande.
La figure 2-9, décrit un traitement que l'on pourrait qualifier de temporel ou géométrique[14].
En effet, l'image générée après chaque traitement est directement stockée en coordonnées
distance - azimut, mais nous verrons un peu plus loin qu'il est possible de travailler dans un
domaine fréquentiel (fréquences spatiales ou temporelles). Toutefois ce traitement temporel
est nettement avantageux d'un point de vue qualité image.
En effet, si la trajectoire du porteur par rapport au sol est connue, les variations de distance
d'un point au sol sont exactement quantifiables. Ainsi, s'il ne se déplace pas en ligne droite
(vents, dérives de pilotage pour un ssytème aéroporté), l'effet Doppler n'est pas celui souhaité
mais reste néanmoins prévisible.
Egalement nous pouvons nous affranchir des problèmes de corrections géométriques : les
migrations, changements de référentiels, projections sont directement calculées au cours de la
compression. Nous pouvons nous caler sur un MNT du terrain dés cette étape. En outre, le
traitement géométrique ne présente pas de difficulté de mise en équation insoluble.
Désavantage :
En revanche, les techniques numériques à mettre en oeuvre sont onéreuses en terme de temps
de calcul. Deux corrélations sont à appliquer - opérations de complexité en n2 - et de
nombreux calculs géométriques sont indispensables dans la boucle ultime. La contrainte
majeure est donc le produit temps - puissance de calcul disponible ce qui conduit à faire des
concessions entre qualité de synthèse et temps total de traitement. Cependant, l'envolée
permanente des performances des calculateurs tend à lever cet obstacle.
Figure -9: Chaîne de traitement de la synthèse radar
Il n'est pas question ici de faire un cours sur les transformations de Fourrier, mais seulement
d'évoquer les quelques propriétés indispensables à la compréhension du traitement fréquentiel
de la synthèse radar.
Nous pouvons noter qu'un signal d'amplitude constante, mais avec une phase parabolique est
de toute évidence un signal modulé en fréquence.
2.2.1.2 Traitements fréquentiels
Compressions :
Les sections 2.1.1.1 et 2.1.1.2 ont montré que le signal reçu est modulé en fréquence, en
distance comme en azimut. La méthode temporelle pour comprimer ces impulsions consiste à
corréler le signal avec le chirp attendu. Cependant, l'intercorrélation de deux signaux est égale
à une convolution entre le premier signal et le conjugué du symétrique du second signal. Or,
la convolution est une opération aisément transposable dans le domaine de Fourrier, où elle
prend la forme d'un simple produit. En outre, le chirp centré est symétrique dans le temps (une
fois que la porteuse est soustraite). La corrélation revient donc à calculer dans l'espace de
Fourrier le produit de la transformée du signal reçu et de la transformée du conjugué du chirp.
Or, un calcul de FFT[15] est une méthode numérique parfaitement maîtrisée et de complexité
en . Un traitement fréquentiel sera donc particulièrement efficace.
Reprenons le raisonnement à l'aide de la figure 2-10. Nous savons que le signal d'une cible
ponctuelle est un chirp. Nous sommes donc dans le cas 4 de la figure 2-10. Si nous
supprimons la phase de sa transformée de Fourrier, nous nous retrouverons dans le cas 3, où
le signal est un sinus cardinal dans le domaine temporel. Ce sinus cardinal est d'ailleurs
d'autant plus étroit que le spectre est large. Or la parabole de phase est connue, il suffit donc
de la soustraire pour l'annuler. Cela revient donc dans le domaine de Fourrier, à une
multiplication par la transformée du chirp avec une phase opposée (le conjugué).
Taux de compression :
Dans les calculs, la transformée de Fourrier du chirp est généralement assimilé à un chirp. Son
amplitude est normalisée à 1, et sa phase varie donc paraboliquement. Nous définissons alors
les fréquences réduites fra et frd selon que le traitement s'effectue en azimut ou en distance :
et
La transformée du signal doit donc être multipliée par une fonction de la forme suivante et
appelée réplique (sous-entendu réplique ou conjuguée de la transformée du chirp)
Équation -11
N est appelé taux de compression car il indique l'étalement d'une cible en nombre de pixels. Il
est également qualifié de longueur de corrélation. En effet, localement, la pente est de -Nfr or
l'intervalle de variation de fr est de 1. N représente donc bien le décalage maximal d'une
contribution.
Équation -12
Équation -13
La figure 2-10 met en évidence qu'une rampe de phase en fréquentiel permet de décaler un
point en temporel. Ce phénomène est fort commode pour corriger les migrations. Cette
opération effectuée après la compression en distance et avant la compression en azimut (ou
pendant une de ces deux phases) exige un lourd calcul d'interpolation lorsqu'elle est effectuée
en temporel. Tandis que l'application d'une rampe de phase en fréquentiel-distance permet
aisément de recaler une ligne.
De plus, sur une même ligne, se superposent les contributions de différentes cibles, dont la
migration est différente. Le travail de correction des migrations ne se limite donc pas à un
simple décalage de ligne, il faut extraire puis déplacer chaque contribution en fonction de sa
position dans l'étalement. En revanche, le travail est bien plus simple en fréquentiel-azimut
(figure 2-11). En effet, le décalage en distance est directement fonction du décalage Doppler
du signal. Les migrations peuvent donc être corrigées des traitements fréquentiels en azimut
comme en distance. Il suffit alors d'appliquer une rampe de phase en fonction de la fréquence
en distance, dont la pente varie paraboliquement en fonction de la fréquence en azimut.
En outre, nous avons supposé jusqu'à présent que la trajectoire du porteur était rectiligne
uniforme. Or, un satellite a généralement une orbite quelque peu elliptique, et un avion dévie
toujours sensiblement de la trajectoire prévue. Ces variations inattendues ou non-standards du
Doppler ne pourront autoriser un traitement fréquentiel classique. Seul un traitement temporel
serait adéquat.
Ambiguïtés en azimut :
En théorie, un léger suréchantillonnage du signal en azimut par rapport à la bande Doppler est
suffisant. En pratique, ce procédé introduit des ambiguïtés sur l'interprétation de la fréquence,
celle-ci ne pouvant être connue qu'à une PRF près. Deux phénomènes peuvent produire des
échos fantômes :
• Le dépointage d'antenne.
La figure 2-13 résume les problèmes rencontrés. Si le dépointage d'antenne est léger, une
interprétation du spectre en azimut permet de lever une ambiguïté sur les fréquences. En effet,
la forme du spectre est approximativement celui du digramme d'antenne, il est donc
relativement aisé d'identifier par analsye le début et la fin du spectre.
Lorsque l'énergie contenue dans les lobes secondaires n'est plus négligeable, le spectre du
signal est alors bien plus large qu'une PRF. Le signal sous-échantillonné ne peut alors plus
être interprété correctement en fréquence (voir figure 2-14). En outre, l'ouverture d'antenne est
définie par rapport à sa largeur à -3Db, si la fréquence d'échantillonnage est fixée au plus juste
le lobe principal sera un peu plus étendu.
L'erreur produite par l'ambiguïté en fréquence est parfois si contraignante, que le procédé
employé pour l'atténuer consiste généralement à éliminer ou à réduire la contribution des
fréquences suspectes. Deux techniques permettent d'obtenir un tel résultat : la présommation
et l'apodisation.
La qualité de l'image restituée est tributaire de l'estimation des paramètres et plus précisément
des taux de compressions. Toutefois les erreurs de quantification peuvent être minimiser par
des traitements de type autofocus. Il suffit d'appliquer un taux de compression variable et de
considérer les variations de la fonction contraste. En outre cette technique peut être employée
non seulement pour évaluer le taux au moment de la synthèse mais aussi pour le corriger en
post-traitement. En effet l'intégralité de l'information complexe est toujours disponible, et une
image mal synthétisée peut donc toujours être refocalisée.
Une autre méthode exploite la largeur de bande du spectre en azimut pour produire deux
images. Elle consiste donc à extraire une partie des basses fréquences, et une portion des
hautes fréquences pour générer deux jeux de données brutes. Ensuite, un taux quelconque est
appliqué et les deux images synthétisées sont corrélées entre elles. Si le taux a été mal ajusté,
une cible ponctuelle sera focalisée en deux points différents, la mesure de la distance les
séparant (par corrélation donc) quantifie exactement l'erreur d'estimation du taux de
compression (à un facteur prés lié à la largeur des bandes sélectionnées et au type de
focalisation)
Super résolution :
Nous savons que la résolution de l'image obtenue est inhérente de la bande passante du signal
reçu. L'idée est d'élargir ce spectre pour accroître le pouvoir de séparation du système. Deux
techniques sont disponibles :
• Utiliser un signal issu d'une acquisition différente et caractérisé par une portion de
spectre distincte. Il suffit d'ajouter la portion de spectre non commune, pour obtenir
une image de résolution théorique plus importante.
• Exploiter les repliements du spectre, pour cette fois générer un signal de bande
passante plus grande. La difficulté est alors d'extraire ces repliements.
Les travaux en cours sur les méthodes de super-résolution nécessite encore de nouvelles
validations pour être concluants.
2.2.2.2 Filtrages
Filtrage du speckle
Les variations quasi stochastiques de la radiométrie d'une image nuisent généralement à son
interprétation, pour un oeil non initié. Ce chatoiement, absent dans le domaine optique,
conduit une majorité d'utilisateurs à préférer des images traitées contre ce phénomène. Les
solutions proposées sont fondées sur un moyennage et sont souvent adaptées de techniques
issues du monde optique.
Il est également possible d'effectuer des lissages radiométriques à partir d'une seule image, en
considérant le speckle comme un bruit.
See Also:
Certains SAR sont capables d'avoir des modes de fonctionnement très particuliers afin de
surdimensionner une caractéristique de l'acquisition. Les propriétés singulières qui en
découlent vont être traitées ici.
Nous savons que la synthèse SAR augmente la résolution d'une image brute grâce à une
antenne virtuelle, dont les dimensions sont inhérentes au temps d'acquisition. Le principe du
spot light[16] consiste à éclairer plus longtemps la zone à imager.
Cette technique est envisageable sur les systèmes capables de dépointer leur antenne afin de
suivre une zone au sol (aucun système civil ne permet à ce jour ce genre d'opération). Les
effets Doppler pourront être plus importants et donc la largeur du spectre en azimut aussi, et
par conséquent la résolution sera plus fine. Toutefois ce procédé ne permet d'augmenter la
résolution que dans la direction azimutale, en outre il n'est plus possible d'imager une large
zone en azimut (Voir figure 2-15).
2.2.3.2 ScanSar
La vision du radar offre de par ses caractéristiques (voir section 1.1.2.1 et 1.2.1.2) de
nombreuses applications :
• La source d'éclairement est le radar. Le système peut donc observer la terre à
n'importe quel moment de la journée (même la nuit), sans être perturbé par les
conditions d'ensoleillement.
• La radiométrie de l'image n'est pas ou peu affecté par les conditions atmosphériques et
météorologiques. Le radar permet donc de cartographier des territoires fréquemment
recouverts par des bandes nuageuses (Cartographie des zones tropicales par RadarSat)
• L'imageur radar a une visée latérale, il permet donc d'observer une zone sans la
survoler, jouant un rôle décisif dans le cadre d'opérations d'espionnage ou tactiques.
Nous savons qu'un coin réflecteur est fortement rétrodiffusant, des dièdres ou trièdres
disposés sur le sol sont donc des repères aisément détectables. C'est donc un excellent
instrument de localisation ou de calibration d'une image radar.
Objets métalliques
Nous savons que les corps métalliques sont particulièrement rétrodiffusants, le radar trouve
donc de nombreuses applications militaires. La détection des chars est en l'occurrence aisée et
leur camouflage difficile : le radar ne peut en effet être trompé par des leurres visuels ou
thermique, de plus l'onde radar est capable de pénétrer le sable.
En outre, la détection de navires est très largement facilitée : l'eau apparaissant très sombre et
les bâtiments très brillants, leur repérage sur une image balayant une large zone est quasi
instantané.
L'eau des fleuves et rivières étant relativement peu agitée, la surface de l'eau se comporte
comme un miroir. Ainsi elle est apparaît normalement totalement sombre dans une image
radar. Cette absence d'écho renvoyé permet de quantifier le niveau du bruit instrumental, qui
est typiquement autour de -20Db à -25Db du niveau moyen de l'image (respectivement pour
RadarSat et pour ERS).
L'effet miroir de l'eau a aussi pour conséquence de créer des échos fantômes. Les ponts,
souvent métalliques, produisent alors un écho artificiel ponctuel (voir figure 3-1). Puisque
seuls les réflecteurs verticaux peuvent générer des échos fantômes, nous nous retrouvons dans
la situation du coin réflecteur. Ainsi plutôt que de produire une image renversée, le radar ne "
raisonnant " qu'en terme de distance, tous les échos seront concentrés à la distance
représentant la base théorique du pied. Un second pont mince peut donc apparaître à la
surface de l'eau.
En plein océan, l'eau ne se comporte pas comme un simple miroir mais plutôt comme un
miroir déformé. Les vagues génèrent des échos dans la direction de rétrodiffusion, avec
production d'interférences, qui induisent des variations d'amplitude importante. Le dispositif
ne permet pas toujours d'observer les vagues, mais la radiométrie étant différente selon leur
orientation, il est donc possible d'observer les courants et cela même avec des systèmes
spatiaux.
La dynamique des échos renvoyés par les surfaces naturelles, et les cultures est généralement
limitée. En outre, l'information d'amplitude est souvent insuffisante pour l'identification du
terrain, elle autorise tout au plus, une différenciation entre les zones riches ou pauvres en
matériaux métalliques. En revanche, le radar peut s'avérer un puissant outil de segmentation,
notamment des cultures. En effet, le radar étant particulièrement sensible à la disposition des
réflecteurs élémentaires, toute organisation sous-jacente induira un comportement différent :
• Le speckle est lié aux phénomènes d'interférences entre les différents éléments
réflecteurs, au sein d'une cellule de résolution. Son comportement statistique est donc
lié à la rugosité de la surface, ainsi la statistique du speckle peut s'avérer un excellent
outil de segmentation des surfaces.[ZONG96]
• Les sillons sont le cas typique de différenciation aisée. Ils présentent de toute évidence
des directions privilégiées, de telle sorte qu'un champ labouré produit des échos plus
ou moins destructif ou constructif selon l'angle de vue. Deux champs voisins n'ayant à
priori pas d'orientation commune, ont donc des radiométries différentes. En
l'occurrence, il est donc également possible d'identifier des cultures en labours, si l'on
dispose de plusieurs vues de la zone, sous des angles distincts.
Toutefois, la classification des cultures et des sols est nettement facilitée, si l'information de
polarisation est disponible (au moins 3 : HH, VV, et une polarisation croisée). La signature
matricielle de la réponse de la cible est un bon élément de caractérisation des surfaces.
Mesure de biomasse
Le radar est d'ordinaire peu adapté à la quantification de la biomasse, toutefois il existe des
cas particuliers où il peut donner d'excellents résultats : les cultures sur sols inondés. En effet
selon le stade de développement de la plante, elle émerge plus ou moins, c'est donc l'effet
miroir de l'eau ou diffusant de la plante qui domine selon sa hauteur et son LAI[18]. La
radiométrie de la culture est donc corrélée avec la biomasse.[RIBBS98]
Etude géologique
Nous n'avons parlé jusqu'à présent que de radars aéroportés ou spatiaux, mais il existe
cependant des radars imageurs sols outre ceux dédiés à la détection d'objets volants. La
possibilité de travailler à des longueurs d'onde plus grande (bandes L et P, technologies très
coûteuses en spatial) octroie la capacité de sonder un sol en profondeur (jusqu'à plusieurs
dizaines de mètres, pour les sables secs).
Le radar est certes sensible à la métallicité des couches traversées, plus précisément aux
modifications de la permittivité diélectrique. Le radar est donc apte à détecter les interfaces de
milieux d'indices différents.[GRANDJEAN99]
Dans les contrées désertiques, les systèmes aéroportés permettent d'observer des structures
géologiques enfouies sous le sable : traces d'anciens lits de rivière, roches mères ou sédiments
différents, ...
See Also:
Le radar bénéficie d'un immense avantage dans le domaine de la localisation par rapport aux
dispositifs optiques : L'image synthétisée est insensible aux dépointages du système
d'acquisition.
Tandis qu'en optique, une erreur d'orientation de quelques dixièmes de degré peut fausser le
positionnement de plusieurs kilomètres, et seule l'utilisation de repères au sol peut permettre
de localiser l'image.
Par recoupement entre plusieurs passages, la localisation est très vite optimale. Deux passages
(orbites croisées, montante et descendante) suffisent au satellite ERS pour positionner un
point au sol dans un parallélépipède de dimensions 15× 15× 5 mètres (x× y× altitude).
Nous savons que la synthèse en azimut est fondée sur la mesure du Doppler, or ce dernier est
fonction de la vitesse relative du porteur par rapport à la cible, une cible en mouvement risque
donc d'avoir des effets singuliers. Il faut distinguer deux cas selon qu'elle se déplace en
distance ou en azimut.
Si l'objet se déplace, une erreur est donc commise sur l'estimation de sa position en azimut et
la vitesse relative du porteur par rapport à l'objet. Nous appellerons respectivement xs, vs et xo,
vo les positions en azimut et vitesses du satellite et de l'objet par rapport au référentiel
terrestre.
Mouvement en azimut
Supposons qu'il se déplace dans la direction de l'azimut (vo positif pour un déplacement dans
la même direction que le porteur), nous obtenons les positions et vitesses relatives suivantes :
avec
d'où
et
Une erreur sur le taux de compression est donc faite. Nous pouvons estimer l'erreur relative
sur Na :
Équation -1
L'erreur produite est donc négligeable pour un système spatial (vitesse du satellite : plusieurs
kilomètres seconde).
Mouvement en distance
Si cette fois il se déplace en distance nous obtenons alors (vo positif pour un rapprochement en
distance):
et
Sa position réelle étant par définition x=0, celui-ci est synthétisé en un point décalé en azimut.
Cet effet n'est jamais négligeable puisqu'en spatial la distance proximale r0 est alors
importante.
Toutefois, le problème est un peu plus complexe. Puisque le signal est échantillonné à PRF, il
ne permet donc pas d'estimer correctement des décalages fréquentiels plus important. Or
l'écart en fréquence par rapport à celui attendu est :
Équation -2
Pour des longueurs d'onde moyennes (bande C) ou plus petite, le décalage est très vite de
plusieurs centaines de Hertz. Les contributions situées dans la partie mal interprétée du
spectre, ont des migrations qui ne pourront être convenablement corrigées (Celles-ci seront
même aggravées). La compression en azimut de ces contributions ne pourra avoir lieu, au
mieux, une seconde image mal focalisée de la cible apparaîtra une ambiguïté plus loin en
azimut.
Équation -3
Mesure de vitesses
• Le sillage des bateaux est fortement rétrodiffusant, celui-ci étant immobile il n'y a pas
de déplacement en azimut. Il représente donc la trajectoire réelle du navire qui lui sera
focalisé en un point différent.
• Des voitures circulant sur un pont, " roulent " de part et d'autre de celui-ci selon leur
sens de déplacement, c'est à dire sur l'eau.
Il faut noter toutefois, qu'il existe des systèmes radars dédiés à la mesure des vitesses : les
radars MTI[19]. Ceux-ci ne sont pas des radars imageurs et sont de surcroît plus performants
pour cette application spécifique.
See Also:
3.2.2 Interférométrie
Le principe général est que deux images prises sous des angles de vues proches vont avoir une
phase qui ne va se différencier que par la phase de trajet (qui intègre ici la notion de phase de
construction). Les autres contributions de l'équation 1-6 sont supposées constantes. Un
déphasage entre deux images recalées permet donc de mesurer des variations de distance
proportionnelles à la longueur d'onde.
3.2.1.1 Principes
Considérons deux acquisitions d'une même scène prise dans des conditions identiques (même
position relative du porteur, mêmes angles de vue, mêmes conditions météorologiques), mais
à des moments différents. Les images de phase sont identiques sauf si la surface à changé
entre les deux prises. Il suffit d'une légère modification de la longueur de trajet pour produire
un déphasage puisqu'elle est sensible à des modifications inférieures à la longueur d'onde
(centimétrique en bande C).
Équation -4
x1 et x2 représentent les échantillons complexes des images respectives 1 et 2, < > est
l'opérateur moyenne appliqué sur une parcelle.
3.2.1.2 Limitations
L'estimateur de la moyenne doit être appliqué sur une parcelle de surface, l'image de
cohérence générée est donc de faible résolution. En outre l'estimateur ci dessus est fortement
biaisé pour des faibles surfaces et de faibles cohérences. Le traitement est donc généralement
effectué sur des images multi-vue.[TOUZI96]
De plus, la mesure de cohérence étant fondée sur la phase, celle-ci est donc entachée de toutes
les erreurs qui peuvent affecter la phase. Les deux positions occupée par le porteur au moment
des acquisitions doivent donc être suffisamment proches pour que les phases de construction
et de rétrodiffusion soient quasi identiques. Cette contrainte est la même que celle qui
assujettit l'interférométrie (section 3.2.2.2, page 55).
3.2.1.3 Applications
Tout changement de rugosité, ou de hauteur d'une surface générera donc une faible cohérence.
L'image de cohérence est donc un puissant outil pour reconnaître :
• Les cultures : d'une manière générale, les couverts végétaux perdent très vite leur
cohérence au cours du temps. En revanche, les sol nus, les milieux urbains la
conservent bien. Il est donc facile de discerner les couverts végétaux du milieu
environnant mais aussi entre eux. Selon le rythme de croissance des plantes, cet
estimateur diminuera plus ou moins rapidement. Egalement, des modifications plus
radicales du sol produiront des chutes drastiques de la cohérence (Moissons, labours,
déforestation, incendie...).[SARTI98]
• Les surfaces liquides : la radiométrie n'est pas toujours suffisante pour distinguer le lit
d'une rivière des marécages avoisinants, ou de sols particulièrement sombre, tandis
que la cohérence quasi nulle permet un fort contraste entre une rivière et les zones
adjacentes. Egalement, en cas de vent, la radiométrie de la mer agitée est similaire à
celle des côtes ce qui n'est pas le cas de la cohérence.
• L'anthropisation de l'environnement : l'activité humaine modifie l'environnement, et
laisse donc des traces indélébiles. Un champ traversé par un char garde des stigmates
invisible sur une image optique, mais ostensible sur une image de cohérence (si les
images ont été prises dans un faible intervalle de temps).
3.2.2 Interférométrie
3.2.2.1 Principes
Modes de fonctionnement
o Une solution mono-antenne avec deux passages, où le décalage entre les deux
trajectoires (généralement parallèles) sert de base stéréoscopique, mais où les
changements intervenus sur la surface risquent de gêner le traitement.
o Un dispositif équipé de deux antennes et effectuant un seul passage. La
seconde antenne peut alors être passive, mais il faut veiller à maîtriser
parfaitement le roulis du porteur.
• Vision différentielle : Le but est de mesurer les déplacements d'une surface entre deux
prises. Idéalement, il suffit de disposer de deux acquisitions prises dans des conditions
d'observation strictement identiques, afin de ne mesurer que les déplacements de
surface et non le relief ; mais comme cela est rarement envisageable, le recours à une
troisième acquisition en stéréovision ou à un MNT est indispensable pour s'affranchir
du déphasage introduit par le relief.
Calcul du déphasage
Considérons la différence de phase de trajet entre les deux acquisition de la figure 3-2.
L'image obtenue à la distance d1 est appelée image maître. Nous obtenons :
Équation -5
Or,
Au premier ordre :
Équation -6
Équation -7
L'intérêt de remplacer par la base orthoradiale est que si les orbites ne sont pas à la même
altitude, cela ne fait que rajouter une phase constante (seule la base orthoradiale doit être
réévaluée). Cependant, les calculs précédents ne prennent pas en compte la rotondité de la
terre, une correction doit donc y être apportée dans le cas de systèmes spatiaux.
Équation -8
Variations du déphasage
Pour extraire le relief, ce qui va nous intéresser ce sont les variations du déphasage en
fonctions des déplacements en distance et en azimut. Considérons la figure 3-3, nous oublions
φ
la rotondité terrestre, et nous allons traduire cette variation ∆ 2 en termes de variations de
positions. Pour cela il nous faut repartir de l'équation 3-6, puisque la base orthoradiale varie
en fonction de y.
Or nous pouvons exprimer la relation entre ∂
y, ∂ d et ∂ z :
Équation -9
D'où :
Finalement :
Équation -10
Interférogramme
Ce principe est baptisé interférométrie puisque le calcul de déphasage est équivalent à une
création d'interférence entre les deux images, c'est à dire entre les échos reçus dans les deux
situations.
Pour calculer le déphasage entre les deux prises, il est essentiel d'établir une relation entre les
pixels des deux images. Celles-ci doivent donc être non seulement recalées l'une par rapport à
l'autre, mais pour qu'elles soient parfaitement superposables, une correction géométrique est
requise. Nous nous trouvons face aux problèmes rencontrés en radargrammétrie, dus à la
stéréovision, toutefois la déformation à appliquer est dans notre cas beaucoup plus faible. Une
simple corrélation automatique peut convenir, celle-ci peut en outre être optimisée en
maximisant le rapport signal sur bruit de l'interférogramme. L'image qui sert de référence est
qualifiée d'image maître et la seconde d'image esclave.
Comme dans le cas du calcul de la cohérence, nous appelons x1 et x2 les variables représentant
les échantillons complexes des images respectives 1 et 2, et < > est l'opérateur moyenne. En
effet, c'est un candidat efficace pour accroître le rapport signal sur bruit, même si c'est au
détriment de la résolution. L'interférogramme I produit est le suivant :
Équation -11
Équation -12
Si nous normalisons le module de I par une moyenne géométrique des modules moyens des
deux images nous obtenons de nouveau la fonction de cohérence. Il faut noter toutefois que si
le calcul de la cohérence nécessite une fenêtre de moyennage, cela n'est pas indispensable
pour le calcul de l'interférogramme. Le module normalisé de I est donc identique à la
cohérence exclusivement dans le cas ou un traitement multi-vue est appliqué afin de
maximiser le rapport signal sur bruit.
Franges orbitales
Équation -13
C'est cette expression qui est parfois exploitée pour quantifier le relief, la base orthoradiale est
alors prise comme constante, cependant la formulation exacte est la suivante :
Équation -14
Bien entendu, i est encore l'inclinaison du satellite, si nous souhaitons utiliser l'incidence
locale en prenant en compte la rotondité de la terre, il faut se servir de l'expression 3-8.
Cette opération est délicate, car elle suppose une variation suffisamment lente de la phase
pour que le déroulement soit convenable. Nous pouvons définir l'altitude d'ambiguïté Ha qui
représente le dénivelé associé à un déphasage de 2π . Pour que le sens de variation de la
phase soit correcte interprété, il est indispensable qu'entre deux pixels consécutifs, le dénivelé
soit inférieur à Ha, d'où la dénomination.
Équation -15
Cette ambiguïté peut être en partie réduite si nous pouvons disposer d'un MNT grossier de la
région. Il suffit de soustraire l'interférogramme que produirait ce relief, pour obtenir un
interférogramme avec beaucoup moins de franges. L'espacement entre ces dernières est alors
plus important, et les cas d'ambiguïtés sur la variation de la phase sont moins nombreux. Il ne
reste plus qu'un relief résiduel à estimer.
Résolutions
La résolution en hauteur est bien entendu d'autant meilleure que l'altitude d'ambiguïté est
faible, puisque la précision sur la phase (en fraction de 2π ) donne une estimation de l'erreur
d'altitude en proportion de l'altitude d'ambiguïté.
En revanche, plus celle-ci est faible, plus les ambiguïtés sont nombreuses. Pour accroître la
précision en hauteur, il est donc indispensable d'améliorer les résolutions au sol afin de
garantir des variations lentes de la phase. Les systèmes aéroportés conviennent fort bien à cet
usage, mais nécessitent des trajectoires parfaitement connues (mesurées pas GPS différentiel).
3.2.2.2 Limitations
Base critique
Ainsi, les ambiguïtés sur la phase n'autorisent pas de mesure de dénivelé entre deux pixels,
supérieur à l'altitude d'ambiguïté Ha. Si nous appelons α la pente locale, alors :
Équation -16
Entre deux images acquises simultanément, la variation de trajet est faible et n'est produite
que par la vision stéréoscopique (Nous sommes dans les conditions interférométriques : base
orthoradiale inférieure à la base critique). En revanche, si elles ont été obtenues à des
moments différents, toute modification même minime au niveau de la surface produira une
importante modification de la phase.
Pour produire des MNT, il est donc indispensable que la surface ait très peu changé, c'est
exactement ce que permet d'estimer la cohérence. Toute perte cohérence se manifeste par une
perte de qualité de l'interférogramme. Il est donc invraisemblable de réaliser des
interférogrammes sur une étendue d'eau même très peu agitée ou sur un couvert végétal.
En outre, toute modification du contexte météorologique entre les deux prises a des
répercussions importantes, et est donc un facteur particulièrement limitant.
3.2.2.3 Applications
Les MNT
Nous avons vu que l'interférométrie permet d'estimer le relief d'une région, donc de produire
directement des MNT. Toutefois, l'incertitude sur la phase et l'ambiguïté sur son déroulement
rendent cette technique nettement plus opérationnelle pour la correction de MNT existants
lorsque les acquisitions " stéréo " ne sont pas simultanées.
Interférométrie différentielle
Les limitations présentées dans la section précédente concernaient essentiellement la
technique stéréoscopique, car dans la technique différentielle, ce sont sur les faibles
modifications de la surface que va se porter notre intérêt. La technique interférométrique reste
délicate sur une étendue d'eau ou un couvert végétal, mais devient remarquable, sur les sols
nus. Les conditions de prise de vue étant cette fois identiques (ou rendues similaires par
calcul), seuls des mouvements du sol entre les deux acquisitions peuvent produire un
déphasage. Des modifications d'altitude inférieures à la longueur d'onde peuvent donc être
mesurées.
Artefacts météorologiques
Les changements de conditions atmosphériques sont les éléments les plus perturbateurs de la
technique interférométrique, toutefois il est parfois possible de s'en affranchir. Si trois
acquisitions remplissant les conditions interférométriques deux à deux sont disponibles pour
un lieu donné, il est possible d'extraire par corrélation l'artéfact météo.[SARTI98].
See Also:
4 Références
Ces quelques références ne constituent en aucun cas une base bibliographique, seule une
partie des éléments ayant servis a l'élaboration de ce synopsis y sont reportés.
[ADRAGNA98_1] Adragna Frédéric ; " Interprétation des images radar ", cours au GDTA.
[ARNAUD97] Arnaud Alain ; " Etude et analyse des artefacts dans la construction de
l'image interférométrique radar ", Thèse de l'INPT, laboratoire LIMA-IRIT (ENSEEIHT),
1997.
[MASSONNET93] Massonnet D., Rossi M., Carmona C., Adragna F., Peltzer G., Feigl
K., Rabaute T. ; " The displacement field of the landers earthquake mapped by radar
interferometry ", Nature, vol 364, pp 138-142, July 1993.
[POLIDORI97] Polidori Laurent ; " Cartographie radar ", Gordon and Breach science
Publishers, 1997.
[RIBBS98] Ribbs Florence ; " Utilisation des données radar pour le suivi des rizières :
cartographie, suivi et estimation du rendement ", thèse de l'université Paul Sabatier III,
télédétection appliquée à la végétation, décembre 1998.
[TOUZI96] Touzi R., Lopes A., Bruniquel J., Vachon P. ; " Unbiaised estimation of the
coherence from multi-look SAR data ", IEEE , page 662-664, 1996.
[ZONG96] Zong-Guo Xia, Yongwei Sheng ; " Radar speckle : noise or information ? ",
IEEE , page 48-50, 1996.