JCJC - Jeunes chercheuses et jeunes chercheurs

Modèles et inférence bayésienne pour la fusion de données images multibandes: application à l'astronomie et à la reconstruction 3D en télédétection – SPACEFUSION

Résumé de soumission

L'affluence des données en observation de la Terre et de l'Univers et le nombre de bandes spectrales sont en constante augmentation, provoquant une redondance des données et une dimensionnalité très élevées, qui sont habituellement peu ou mal prises en compte en traitement d'images. La multiplicité des données, leur complexité et leur hétérogénéité rendent leur interprétation particulièrement difficile. L'un des premiers objectifs de ce projet est donc d'extraire l'information utile à partir de ces masses de données, afin de faciliter leur présentation pour permettre une analyse plus aisée, mais aussi plus précise. - A cet effet, pour pallier la redondance d'information, nous proposons de développer et d'appliquer de nouvelles méthodes de fusion et reconstruction. L'originalité du projet consiste à traiter la fusion de données comme l'estimation d'un seul modèle, de résolutions spatiale et spectrale arbitraires, à partir d'un nombre d'observations hétérogènes issues de plusieurs capteurs. Il s'agit donc de construire un objet géométrique et radiométrique qui coïncide au mieux avec les observations, tout en intégrant l'information utile présente dans les données initiales. - En imagerie astronomique, on cherchera à obtenir une image à la fois nette, bien échantillonnée, exempte de bruit et pouvant être super-résolue. Dans le cadre de l'Observatoire virtuel, on souhaitera par exemple fusionner des informations multispectrales hétérogènes. En imagerie planétaire ou terrestre, pour combiner plusieurs images satellitaires il faudra tenir compte de la topographie du terrain et des paramètres d'observation. La topographie sera donc incluse dans le modèle de manière explicite. Elle sera découplée de la réflectance multispectrale qui traduit la couleur du terrain. L'objet issu de la fusion-reconstruction sera une surface 3D, éventuellement super-résolue à la fois en ce qui concerne la géométrie et la réflectance. - Nous commencerons par définir un modèle génératif multidimensionnel permettant de décrire la formation d'images à partir d'un seul modèle multibandes, pouvant être une image 2D ou une surface 3D. L'estimation des paramètres du modèle et des incertitudes associées sera effectuée par une méthode d'inférence bayésienne hiérarchique, qui constitue l'une des innovations de ce projet. Ceci permettra d'intégrer la physique des objets étudiés en traduisant les connaissances a priori, et des modèles d'observation décrivant la chaîne d'acquisition de données (formation et dégradation des images). L'approche restera ouverte puisqu'elle permettra aussi d'incorporer de nouvelles données au modèle au fur et à mesure de leur disponibilité, pour la mise à jour du modèle. - L'expérience et la complémentarité du groupe de travail permettront d'obtenir, sur trois ans, de nets progrès dans la fusion d'informations multisources, appuyés par des résultats concrets sur des banques d'images réelles qui seront validés par des experts en astronomie et télédétection.

Coordination du projet

André JALOBEANU (Université)

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenaire

Aide de l'ANR 120 000 euros
Début et durée du projet scientifique : - 36 Mois

Liens utiles

Explorez notre base de projets financés

 

 

L’ANR met à disposition ses jeux de données sur les projets, cliquez ici pour en savoir plus.

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter