Suivi et détection des fake news et deepfakes dans les réseaux sociaux arabes – TRADEF
TRADEF
Tracking and detecting fake news and deepfakes on Arab social<br />networks
Enjeux et objectifs
La guerre cognitive a comme objectif de déstabiliser les institutions d'un pays en influençant l'opinion publique. Cette déstabilisation agit via la manipulation de l’information, notamment via les réseaux sociaux. Ainsi, cela aboutit à la diffusion de ce que l’on appelle communément fakenews ou deepfakes.<br />Notre objectif dans ce projet est de détecter d'une manière précoce ce type de désinformation, de dénigrement et de propagande. L'objectif de TRADEF est donc de détecter un événement suspect qui peut se présenter sous forme d'un texte, d'un podcast ou d'une vidéo. Cet événement suspect est analysé et surtout pisté dans le temps. En effet, une information peut être suspecte, mais au fil du temps, elle peut changer de statut pour devenir avérée. Par ailleurs, une information peut paraître crédible à un instant donné, mais être démentie ou infirmée par de nouveaux éléments.<br /><br />Une des originalités de ce projet est justement de suivre longitudinalement le statut d'un événement, en expliquant à tout moment celui-ci.<br /><br />Une autre originalité de ce projet est de s'intéresser à la désinformation dans le contexte de l'arabe dialectal. Pour être plus juste, il faut parler plutôt d'arabes dialectaux, puisqu'il s'agit de langues vernaculaires qui diffèrent d'un pays à l'autre, voire d'une région à l'autre dans un même pays. Cela rend la surveillance encore plus compliquée. De plus, le phénomène du code-switching est particulièrement présent dans ce contexte : les communautés concernées passent fréquemment d'une langue à une autre au sein d'une même phrase. En France, ce phénomène est encore plus intéressant et se décline sous deux formes : des textes dans les réseaux sociaux avec une prédominance de l'arabe et quelques mots en français ou, à l'inverse, quelques mots d'Arabe au sein de textes majoritairement en Français. Ce dernier cas correspond majoritairement à des personnes ayant réalisé leur apprentissage en France, qui maîtrisent mal l'Arabe mais persistent à intégrer dans leurs communications sur les réseaux sociaux quelques expressions et mots en arabe.
Concernant le traitement du deepfake dans notre projet, notre objectif est de développer des méthodes robustes de détection de deepfake qui n'ont pas été créées dans les mêmes conditions que celles utilisées lors de l'apprentissage. En fait, la plupart des manipulations faciales actuelles semblent faciles à détecter dans des scénarios contrôlés et maîtrisés. Dans ce contexte, il a été démontré dans la plupart des benchmarks existants que les méthodes de détection atteignent des taux d'erreur très faibles mais il est difficile d'identifier correctement ceux partagés dans les réseaux sociaux, en raison des fortes variations comme le niveau de compression, le redimensionnement, le bruit, etc. De plus, les techniques de manipulation faciale s'améliorent continuellement, ce qui mène à développer de nouvelles méthodes de recherche permettant une meilleure généralisation pour détecter les deepfakes créées dans des conditions inédites.
L'approche que nous adoptons dans notre projet pour identifier ces deepfakes est fondée sur des techniques d'apprentissage profond et par renforcement qui utilisent des algorithmes similaires à ceux utilisés pour construire les deepfakes eux-mêmes, comme les méthodes fondées sur le principe du réseau antagoniste génératif (GAN).
Les approches fondées sur un réseau de type GAN sont séduisantes, elles se composent d'un Générateur et d'un Discriminateur, chacun d'entre eux étant un réseau de neurones convolutifs (CNN). Ils sont entraînés ensemble afin que le discriminateur apprenne à distinguer les fausses images/vidéos des vraies et que le réseau génératif apprenne à tromper le discriminateur. Cette méthode est considérée comme l'une des meilleures inventions en matière de réseau neuronal de la dernière décennie.
Nous pensons que la méthode utilisée pour créer des images manipulées pourrait être exploitée pour identifier les fausses images/vidéos. En d'autres termes, nous pouvons inverser le processus de création de deepfakes, nous proposons alors de faire en quelque sorte un processus de rétro-ingénierie. Nous utiliserons des multi-GAN, on testera avec au moins deux générateurs pour affiner la discrimination des images manipulées des originales.
Nous pensons qu'il n'est pas opportun d'envisager la détection de deepfakes comme un simple problème de classification binaire, mais comme un problème de détection d'anomalies à une classe.
Concernant les corpus d'apprentissage et de test, on utilisera les benchmarks existants comme github.com/ondyari/FaceForensics qui est accessible au public, avant de passer à des jeux de données de référence plus complexes. Nous avons en effet construit au LORIA, dans l'équipe SMarT, le corpus ArabDeep, un ensemble de vidéos manipulées concernant des personnalités arabes.
Quant aux mesures d'évaluation, nous utiliserons principalement la précision des modèles. Nous évaluerons également la méthode en utilisant le score FID et le FID conditionnel.
(résumé à Début + 6 mois)
Nous avons créé le corpus BOUTEF (Bolstering Our Understanding Through an Elaborated Fake News Corpus). Il s’agit d’un corpus original de fakes news. Il comprend du contenu dans les dialectes algérien et tunisien, en arabe standard moderne (MSA), en français en anglais et sous diverses formes écrites présentes dans le monde arabe. De plus, pour les dialectes algérien et tunisien, nous avons préservé à la fois l’écriture latine et arabe dans l’ensemble des données. BOUTEF comprend plus de 3600 publications de Fakes news collectées sur diverses plateformes de médias sociaux couvrant la
période de 2010 à 2024. Les données ont été collectées sur Facebook, Twitter, YouTube et TikTok, reflétant les sources diverses de désinformation. Nous avons associé chaque post avec les informations qui seront utiles à nos objectifs : identifiant du compte, thèmes, catégorie de la fakenews (intention), et surtout la liste des commentaires associés au post.
Nous avons étudié plusieurs corpus décrivant le comportement de bots sur les réseaux sociaux dans l’objectif de les caractériser et de les détecter automatiquement. Cette étude a montré la grande difficulté de cette tâche car les bots ont un comportement très proche des comptes humains.
En ce qui concerne la transcription automatique de dialecte arabe, afin d’obtenir un premier modèle qui nous servira de référence, nous avons mené une expérience utilisant l’ensemble de données du corpus QASR avec la recette CTC de SpeechBrain, en utilisant un tokenizer de 1024 unigrammes et un modèle de langage de 4 grammes pour rescoring. Ce premier pas a montré que la comparaison à des données de référence est très complexe du fait de la grande variabilité de transcription des dialectes. Nous avons donc commencé à travailler sur des mesures prenant plus en compte le contenu sémantique de la transcription que la forme même des mots, ou encore leur prononciation. Enfin, nous avons débuté un travail pour détecter les fausses traductions de vidéos.
(résumé à Début + 6 mois)
Le corpus BOUTEF sera alimenté tout au long du projet.
L'étape suivante du projet consiste à élaborer un système de détection de fakenews à partir des données de BOUTEF, notamment en se basant sur les commentaires.
(à la date de Début + 6 mois)
K. Smaïli, A. Hamza, D. Langlois, D. Amazouz, ”BOUTEF: Bolstering Our Understanding Through an Elaborated Fake News Corpus”, 8th Internnational Conference on Arabic Natural Language Processing, Rabat, Morocco,
La guerre de 4ème génération (4GW) est connue comme étant la guerre de l'information impliquant des populations non nécessairement militaires. Elle est menée par des groupes nationaux ou transnationaux qui suivent des idéologies fondées sur des convictions culturelles, sur la religion, sur les intérêts économiques ou politiques avec comme objectif de semer le chaos dans un endroit visé du monde. En 1989, les auteurs d'un article sur la guerre de quatrième génération, dont certains sont militaires, expliquaient que la guerre de quatrième génération serait largement répandue et difficile à définir dans les décennies à venir.
Avec l'apparition des réseaux sociaux, le champ de bataille dont les contours étaient flous a trouvé un lieu pour la 4GW. En effet, un des points de pénétration de la 4GW est l'utilisation massive des réseaux sociaux pour manipuler les opinions, l'objectif étant de préparer l'opinion d'un endroit du monde à accepter un état de fait et de le rendre humainement acceptable et politiquement correct.
Tout comme la guerre de quatrième génération, la guerre cognitive a comme objectif de brouiller les mécanismes de compréhension de la politique, de l'économie, de la religion, etc. La conséquence de cette action est de déstabiliser et de réduire l'adversaire. Cette guerre cognitive vise donc le cerveau de ce qui est supposé être l'ennemi. Finalement, le nouveau champ de bataille mal défini dans la 4GW se déplace vers le cerveau de l'adversaire ou plus exactement dans le subconscient de la population de l'adversaire.
Cette guerre a comme objectif d'altérer la réalité, entre autres, en inondant souvent la population de l'adversaire par des informations erronées, par des rumeurs, par des vidéos fabriquées ou modifiées.
De plus, la multiplication des social bots aujourd'hui permet de générer automatiquement de la désinformation dans les réseaux sociaux. Selon certaines sources, pour les élections américaines de 2016, 19% du volume total de tweets générés l'ont été grâce à ces robots automatiques.
Dans TRADEF, nous nous intéressons à quelques voies de la désinformation : les fake news, le deep fake et l'information potentiellement nocive. L'idée est de détecter très rapidement dans les réseaux sociaux, la naissance d'une fake sous sa forme textuelle, audio ou vidéo et sa propagation à travers les réseaux. Il est question de détecter la naissance d'une fake et de la suivre dans le temps. À tout moment cette rumeur potentielle est analysée et se voit attribuer une mesure de confiance, elle est pistée à travers les réseaux sociaux dans la langue de référence ainsi que dans des langues différentes. L'évolution de l'information suspecte à travers le temps verra son score changer en fonction des données auxquelles elle sera confrontée. L'information à tester est mise en correspondance avec des données audios ou vidéos qui peuvent infirmer ou confirmer la crédibilité de l'information. Les vidéos qui peuvent servir de sources pour dénoncer une fake peuvent être elles-mêmes des deepfakes. Cela nous amène à être vigilants quant à l'examen de ces vidéos en développant des méthodes de détection de deepfakes robustes. Enfin une dimension explicabilité des résultats est introduite dans ce projet.
Etant donnée l'expérience des équipes participantes en deep learning et en traitement automatique de la langue arabe standard et ses dialectes, nous nous proposons de pister et d'identifier les fakes et les informations potentiellement nocives dans les réseaux sociaux arabes ce qui engendre d'autres défis scientifiques à relever comme le traitement du code-switching, la variabilité des dialectes arabes, l'identification dans le continuum de la parole des entités nommées, le développement de méthodes neuronales pour des langues peu dotées en ressources et l'explicabilité des résultats obtenus.
Coordination du projet
Kamel SMAILI (Laboratoire lorrain de recherche en informatique et ses applications)
L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.
Partenariat
LORIA Laboratoire lorrain de recherche en informatique et ses applications
LIA Laboratoire d'Informatique d'Avignon
Aide de l'ANR 295 715 euros
Début et durée du projet scientifique :
décembre 2022
- 36 Mois