IDENTIFICATION DES MASSES NUAGEUSES PAR FUSION DE DONNEES IMAGES (RADAR – SATELLITE)

Z Ameur, M Lazri, S Ameur

Abstract


Dans cet article, nous présentons une méthode de fusion d’images basée sur une
approche probabiliste en vue de l’identification des masses nuageuses.
L’objectif visé est l’obtention d’une image segmentée à partir de deux images
représentant la même scène captée au même moment par satellite et par radar.
L’image résultante pourrait ainsi être utilisée pour une estimation plus fine des
précipitations. Pour mettre au point notre méthode, nous avons dans une
première étape, recalé les deux images à fusionner afin de superposer les pixels
correspondant à un même objet observé par les deux capteurs. Ensuite, en
considérant que l’image radar est constituée de trois classes "ciel clair",
"précipitations moyennes" et "fortes précipitations" et que l’image satellitaire
est constituée de deux classes "ciel clair" et "ciel nuageux", nous avons fait
l’hypothèse que l’image résultante est constituée de la combinaison de ces
classes. Nous avons ainsi défini pour cette image quatre classes qui
correspondent à quatre situations météorologiques, à savoir, "ciel clair",
"nuages non précipitants", "nuages à précipitation moyenne" et "nuages à fortes
précipitations". Dans une seconde étape, les paramètres initiaux de chaque
classe (moyenne et écart type) de chaque image sont déduits à partir d’une
modélisation gaussienne de leurs histogrammes. Ces paramètres sont utilisés
pour calculer les probabilités a priori d’appartenance des pixels aux différentes
classes citées précédemment. Enfin, une première image de fusion est obtenue
en appliquant la méthode du maximum de vraisemblance (Tupin et al. 2004). A
partir de cette première image, les paramètres de chaque classe sont mis à jour
pour être utilisés une deuxième fois, puis les mêmes opérations sont répétées
jusqu’à ce qu’aucun pixel ne change de classes d’une itération à l’autre.


Full Text:

PDF (Français)

Refbacks

  • There are currently no refbacks.


Creative Commons License
This work is licensed under a Creative Commons Attribution 3.0 License.