DEFALS - Challenge DEtection de FALSifications dans des images et vidéos

statistiques rObustEs pour l’apprentIssage Léger – OEIL

Résumé de soumission

A partir d’une image originale issue d’un appareil photographique numérique (APN), cette image peut être soit modifiée globalement à des fins d’amélioration de la qualité de l’image, soit modifiée localement avec souvent pour objectif de contrefaire l’information véhiculée par l’image falsifiée. L’objectif de ce projet est de pouvoir séparer les manipulations d’images globales des manipulations d’images locales afin de détecter des manipulations d’images mal intentionnées. L’idée principale de ce projet s'appuie sur une analyse statistique réalisée sur des ensembles de petite taille. L’approche que nous proposons se positionne complètement à l’opposé des approches statistiques classiques qui s’appuient sur la loi des grands nombres, puisqu’elle consiste à réaliser une analyse statistique sur des échantillons composés d’un faible nombre d’éléments. Nous justifions cette approche du fait que, pour la détection d’images falsifiées, nous ne disposons pas les images originales et que nous ne sommes pas censés avoir des grandes bases d’images contenant toutes les manipulations d’images possibles. Du coup, pour chaque image, il nous faut apprendre un contenu statistique caractéristique de l’image, de son acquisition et des traitements qu’elle a subi à partir du contenu de celle-ci uniquement, puis utiliser cette analyse pour détecter le plus finement possible si une zone de l’image ne contient pas les mêmes caractéristiques. Si c’est le cas, alors l’image sera supposée avoir été falsifiée et nous pourrions éventuellement être capables de localiser cette zone. Ce type d’approche est confronté à trois difficultés principales :

i) l’apprentissage de caractéristiques statistiques globales qui ne soit pas sensibles aux modifications locales (robustesse vis à vis de la contamination des lois statistiques),
ii) la caractérisation statistiques de zones de faible taille, c’est à dire une description statistique basé sur un faible nombre d’information (robustesse vis à vis de la taille de l’échantillon),
iii) la comparaison d’un critère statistique global appris avec beaucoup d’information éventuellement contaminée à un critère statistique local éventuellement moins contaminé mais appris avec un faible nombre d’information (robustesse vis à vis de l’inhomogénéité des informations).

C’est la raison pour laquelle nous avons décider de nommer le projet “Statistiques robustes pour l’apprentissage léger”, soit en anglais “robust statistics-based lite learning”.

Le projet est composé de quatre parties :

1) Caractérisation de phénomènes statistiques robuste à la contamination.
2) Analyse de la signification d’un critère statistique en fonction de la taille d’un bloc de pixels.
3) Prise décision dans l’incertain à partir d’informations non homogènes.
4) Caractériser chacune des modifications possibles et/ou connues.


Coordination du projet

William PUECH (Laboratoire d'Informatique, de Robotique et de Microélectronique de Montpellier)

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenaire

NETHEOS NETHEOS
UNICAMP Institute of Computing, UNIVERSITY OF CAMPINAS
UNIOVI University of Oviedo
UM-LIRMM Laboratoire d'Informatique, de Robotique et de Microélectronique de Montpellier

Aide de l'ANR 397 656 euros
Début et durée du projet scientifique : février 2017 - 42 Mois

Liens utiles

Explorez notre base de projets financés

 

 

L’ANR met à disposition ses jeux de données sur les projets, cliquez ici pour en savoir plus.

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter