Science et IA : quelles (r)évolutions ?
Science et IA : quelles (r)évolutions ?
« L’ANR s’est mobilisée depuis 2017 pour opérer la stratégie nationale pour l’intelligence artificielle, et s’imposer comme un acteur clé du développement de l’IA en France, pour le compte de France 2030. Au-delà de ce rôle, elle finance également à travers son plan d’action de nombreux projets novateurs sur l’IA : projets de recherche, laboratoires communs, chaires industrielles, etc. En tant qu’acteur clé de la recherche sur projet, l’ANR accompagne ainsi l’essor de cette technologie. Nous avons souhaité, par cette revue et un accès spécifique sur data anr à l’ensemble des données sur les projets financés, mettre en valeur le soutien à cette thématique scientifique, qui a pris de l’ampleur ces dernières années. ».
Claire Giry, Présidente-directrice générale de l’ANR.
L’IA en France : une dynamique soutenue par l’ANR
La révolution technologique et industrielle promise par l’IA est bel et bien en marche. Et c’est plus que cela qui se profile : l’IA annonce de profonds changements dans nos sociétés, que ce soit dans le monde de la science, de la connaissance, du travail ou encore du traitement de l’information. C’est dans ce contexte que la France organise du 6 au 11 février 2025 un sommet international pour l’action sur l’IA. De nombreux évènements visant à renforcer l’action internationale en faveur d’une intelligence artificielle au service de l’intérêt général sont au programme dont deux journées scientifiques, un week-end culturel et un Sommet international au Grand Palais, à Paris. Chefs d'État, scientifiques, startuppers et dirigeants de grandes entreprises se réuniront pour réfléchir à l’avenir de l’IA et échanger sur des solutions innovantes autour de la relation entre l'IA, le travail, la culture ainsi que sur la gouvernance mondiale de l'IA et le développement d'une IA au service de l’intérêt public. Avec un objectif annoncé pour la France : peser sur la scène mondiale de l’intelligence artificielle.
Dans cette perspective, la France s’est dotée dès 2018 d’une stratégie nationale pour l’intelligence artificielle (SNIA), avec le but de se positionner comme l’un des leaders européens et mondiaux dans le domaine. Cette stratégie nationale a pour ambition de préserver et consolider la souveraineté économique, technologique et politique de la France et de mettre l’IA au service de l’économie et de la société. Elle est également un axe fort du plan d’investissement de l’Etat, France 2030.
La SNIA a permis d’abord de structurer l’écosystème de recherche national et de mettre les forces vives françaises de l’IA en ordre de bataille. Sa deuxième phase, lancée en 2022, a pour objectif de diffuser l’IA dans l’économie. Cette stratégie a soutenu en 2019 la labellisation de quatre Instituts 3IA opérée par l’ANR dans le cadre des Programmes d’investissements d’avenir (PIA). Ces quatre premiers pôles à Grenoble, Nice, Paris et Toulouse, figurent aussi parmi les lauréats de l’Appel à manifestation d’intérêt IA Cluster, retenus par l’Etat en 2023 sur la base de l’expertise d’un jury international opéré par l’ANR dans le cadre de France 2030. Les 9 lauréats IA Cluster auront pour mission d’accompagner les établissements d’enseignement supérieur dans une augmentation significative du nombre de diplômés en IA, attirer les meilleurs talents internationaux avec des formations d’excellence visibles dans le monde entier et développer les usages de l’IA en capitalisant sur la recherche applicative dans des domaines aussi variés que la cybersécurité, l’agriculture, la santé, les mobilités ou l’environnement.
La SNIA a permis aussi le financement de chaires et de doctorats, ainsi que l’investissement dans des infrastructures de calcul comme les supercalculateurs Jean Zay et Adastra, inaugurés en 2019 et en 2023.
Le soutien de l’ANR à l’IA dans le plan d’action et France 2030
Concrètement, la thématique de l’Intelligence Artificielle (IA) est au centre de plusieurs appels à projets qui entrent dans le cadre du plan d’action de l’ANR. Dans l’appel à projets générique (AAPG), dispositif majeur du plan d’action, un axe spécifique sur l’IA a été instauré en 2017 « Intelligence artificielle et sciences des données », même si des projets étaient financés auparavant. Il vise à soutenir des projets de recherche disciplinaire en IA.
Par ailleurs, les thématiques liées à l’utilisation de l’IA ou bien à l’interdisciplinarité sont également présentes dans les 56 autres axes de l’AAPG. Plusieurs propositions de projets impliquant l’IA dans d’autres domaines disciplinaires soit comme objet de recherche ou utilisant des techniques d’IA ou les deux sont également soutenues dans ces autres axes. Enfin, toujours pour l’AAPG, une priorité nationale dédiée à l’IA est présente depuis plusieurs années. Elle se traduit par un abondement annuel supplémentaire de près de 10 M€ pour le financement de projets en IA, en plus des crédits alloués à cet appel.
En outre, dans le cadre du plan d’action, d’autres appels concernent l’IA, notamment les Labcoms, projets associant un laboratoire de recherche et une entreprise (ETI, PME, Start-UP) et les chaires industrielles, chaires de chercheurs adossées à une entreprise.
Par exemple, le CNRS, l’université de Rennes et Ouest-France ont lancé Synapses en 2025, premier laboratoire commun avec un organe de presse afin de développer l’IA au service du journalisme. Soutenu par l’ANR, il vise l’analyse des archives photos, le traitement des textes historiques, et la visualisation de données complexes. Synapses combine "IA et souveraineté des données" pour exploiter un patrimoine unique de 105 millions de documents.
Enfin, entre 2018 et 2022, en interaction avec le MESR, l’ANR a opéré un plan IA qui a permis de financer entre autres des Chaires de chercheurs, des bourses de thèses de doctorat et des appels internationaux bilatéraux et trilatéraux avec l’Allemagne et le Japon.
« Tous les programmes sont élaborés et mis en œuvre en collaboration très étroite avec le ministère chargé de l'Enseignement supérieur et de la Recherche et, quand le programme le concerne, également avec le Secrétariat général pour l'investissement (SGPI) pour les actions financées par France 2030 », précise Yamine Ait Ameur, directeur du département scientifique Numérique et Mathématiques de l’ANR. Tous comportent un volet valorisation, dissémination, et transfert vers le monde socio-économique, pour lequel chaque projet décrit sa contribution. Et, enfin, tous les programmes comportent aussi un volet impact et éthique, pour lequel chaque projet décrit sa contribution. De plus, l’ANR opère un certain nombre de programmes dans lesquels les enjeux éthiques et sociaux liés aux développements de l’IA sont les objets d’étude. »
Coté grands programmes d’investissement de l’état (France 2030), opérés par l’ANR depuis 2011 dans les champs de l’enseignement supérieur de la recherche, l’IA figure parmi la vingtaine de stratégies nationales décidées par l’Etat, abordées de manière transverse au travers de 10 objectifs et six leviers du plan France 2030. Devenue incontournable en tant qu’objet d’étude ou outil d’appui à la recherche, l’IA, avec ses innombrables potentialités, irrigue les ambitions de France 2030.
Couvrant une grande partie de ces sujets, le programme de recherche (PEPR) « Intelligence artificielle » est avec les IA Cluster une autre action importante de France 2030 et fait l’objet d’une mise en lumière dans ce numéro. Doté de 73 M€ sur six ans, il aborde une majorité de thèmes au cœur du sommet pour l’action en Intelligence artificielle tels que l’IA de confiance, l’IA frugale et embarquée, les nouveaux fondements mathématiques de l’IA.
Parmi les programmes de recherche de France 2030, l’IA est également abordée étroitement dans les PEPR Santé numérique, Réseaux du futur, Cloud, Cybersécurité, Quantique, Numérique pour l’Exascale, lesquels nouent des collaborations fructueuses avec le PEPR IA. D’autres programmes utilisent l’IA comme outil d’aide à la recherche notamment les programmes Agroécologie et numérique, Industries culturelles et créatives, tandis que d’autres comme Mathématiques en interaction sont intrinsèquement associés à l’IA.
Côté valorisation, les SATT (Sociétés d’Accélération du Transfert de Technologies) assurent le relais entre les laboratoires de recherche et les entreprises et financent les phases de maturation des projets et de preuve de concept. Leurs activités traduisent les découvertes et compétences de la recherche publique en applications concrètes pour répondre aux besoins des entreprises. 50 projets de maturation soutenus à hauteur de 14 M€ au sein de France 2030, intègrent une forte composante liée à l’Intelligence Artificielle. Les domaines d’application concernent par exemple la santé avec des outils d’aide au diagnostic précoce de certaines pathologies (AVC, cancers) ou l’identification automatique de cellules sanguines ou de moelle osseuse d'intérêt dans certaines pathologies, mais aussi des outils d’aide à la prise de décision en entreprise par le contournement de biais cognitifs, la simulation d’entretiens d’embauche, le suivi et la mesure de feux de végétation…
De même, les usages des IA génératives se sont rapidement déployés dans l’enseignement et dans la formation professionnelle, bouleversant et questionnant entre autres la mission de l’enseignement, le rôle des enseignants et formateurs. Ils sont au centre du défi Convergence IA, lancé en marge de ce sommet et dont le volet « au service de la réussite éducative » a été confié à l’association EdTech France et aux lauréats de l’action « Démonstrateurs dans l’enseignement supérieur » opérée par l’ANR. Une charte des usages des IA génératives dans l’ESR sera publiée à l’occasion du Sommet, et mise à disposition de tous les établissements pour un usage éthique et responsable de l’IA.
Prospective oblige, les formations aux compétences et métiers d’avenir mises en œuvre par l’ANR à travers l’action CMA impliquent largement l’IA avec le soutien de 12 projets de formations initiales et continues visant à former les talents de demain dans ce domaine. Ce dispositif a pour objectif d’accélérer l’adaptation des formations aux besoins des compétences des nouvelles filières. Au total, près de 80 M€ sont alloués aux 12 premiers lauréats de l’appel à projets « Compétences et Métiers d’Avenir » dédiés à la massification du nombre de formés en IA sur l’ensemble du territoire national.
IA et synthèse vocale : les nouvelles voix de la création
La malédiction de la pré-image ou pourquoi l’IA peut-elle (encore) générer un chien à cinq pattes


Science et IA : quelles (r)évolutions ?
Titre
Description
Science et IA : quelles (r)évolutions ?
Intelligence artificielle, métavers et industries culturelles : des mondes complémentaires en mutation
Pouvez - vous nous présenter les ambitions du projet STYX ?
STYX ambitionne d’analyser, en synergie avec les approches scientifiques et techniques, les dimensions socio-économiques des transformations numériques en cours au sein des ICC. Il s'intéresse en particulier aux effets des technologies immersives, décentralisées et génératives sur les industries culturelles et créatives (ICC), autour de deux objets : le développement des métavers et l’intégration de l'intelligence artificielle.
Dans ce contexte de mutations, nous nous intéressons à la place des ICC à travers deux prismes complémentaires. Le premier axe met en lumière les acteurs centraux de l'économie des contenus, ceux dont le métier est de peupler les métavers avec du contenu. La manière dont les créateurs et créatrices contribuent à l'émergence d’un nouveau chapitre de la création numérique. Le second axe permet d’identifier les restructurations en cours dans les différents secteurs des ICC, les entreprises engagées et les phénomènes d’hybridation qui se manifestent entre les mondes techniques de la création immersive et les univers culturels. Il met également en lumière les forces et les faiblesses des acteurs français face à ces mutations.
Le projet est donc en adéquation avec les ambitions de France 2030 puisqu’il s’agit d’une recherche action dont l’une des vocations est de produire des préconisations aussi bien pour les Pouvoirs publics que pour les professionnels.
L’IA et le métavers ont-ils des angles communs d’étude pour les chercheurs ?
Il y a une proximité entre les différents projets de métavers et l’IAG à la fois du point de vue des compétences mobilisées et des expérimentations. L’IAG sert à peupler des mondes virtuels, créer des personnages, des décors, des histoires, des parcours ; tous éléments qui interviennent dans beaucoup de projets immersifs et interactifs. Nous avons commencé, avec Jaercio da Silva, par réaliser une cartographie des discours de professionnels, d’entreprises, d’autorités publiques et de chercheurs pour mieux comprendre ce qui est discuté autour du métavers. La conclusion est qu’aucune définition unique ne s'impose ; le terme demeure tout à la fois une métaphore du futur d'Internet, un reflet de l’actualité industrielle des entreprises numériques et une conséquence de la « gamification » de certains secteurs de la société. Cette cartographie montre également que les acteurs du métavers partagent énormément (mêmes réseaux, mêmes outils, mêmes compétences, mêmes formations…) avec ceux de l’IAG (voire sont les mêmes). La double compétence numérique et artistique est expérimentée parallèlement par l’IAG et par les métavers.
Le métavers est-il encore d’actualité ?
Pendant quelques années, LE métavers a captivé médias, entrepreneurs, et régulateurs avant qu’ils ne s’en détournent largement au profit de débats sur l’intelligence artificielle ou sur l’essor des dispositifs immersifs notamment dans des musées et des expositions. La promesse d’UN métavers, espace global, virtuel et immersif où s’entrelaceraient harmonieusement les mondes physiques et numériques, n’est pas advenue. Deux manières d’envisager l’avenir sont alors apparues. La première, téléologique, consiste à penser que le métavers est un devenir qui se réalisera finalement, à terme, à l’aide d’innovations technologiques (démocratisation de la réalité virtuelle, interopérabilité des plateformes…). La seconde questionne la définition du métavers. Loin d’être un concept ultra-technologique, les métavers désigneraient des espaces virtuels répliquant les dynamiques sociales, économiques, et culturelles du monde réel.
Or, de telles plateformes existent déjà : certains jeux vidéo, appelés proto-métavers ou antécédants des métavers (exemple : Roblox, Fortnite, Decentraland…), se caractérisent par ces dynamiques sociales et économiques que ne partagent pas les jeux vidéo classiques ; ces plateformes reposent en effet sur les interactions entre utilisateurs, permettant la création d’objets, de jeux et d’environnements virtuels, et donnant naissance à des marchés de biens et de services. On peut dès lors se déprendre d’une perspective purement théorique pour étudier le « métavers en construction », ses enjeux et évolutions à partir de plateformes existantes qui en exhibent les traits principaux.
Ces proto-métavers que sont certains jeux vidéo font-ils, là encore, apparaître des liens avec l’intelligence artificielle ?
D’une certaine façon, dans ces univers proto- métaversiques, l’intelligence artificielle peut être considérée comme l’avenir du métavers. Dans une recherche récente menée par Gabriel Tailleur et Morgane Ramis, nous avons ainsi testé de manière empirique l’intégration différenciée de l’IA dans les jeux vidéo selon qu’il s’agit de les proto-métavers (PMs) et les jeux vidéo linéaires / traditionnels (LVGs). L’analyse empirique menée montre que les PMs ont une plus grande probabilité que les LVGs d’acquérir (M&A) ou d’investir dans des start-ups liées à l’intelligence artificielle. Les PMs apparaissent comme des plateformes plus innovantes en IA que les LVGs ce qui s’explique par la structure des PMs, dont le succès est fondé sur des effets de réseaux et une économie de la création dynamique. Les dirigeants de ces entreprises semblent donc anticiper des effets positifs de l’IA en investissant davantage dans les PMs, dont les caractéristiques permettent à ces effets positifs de se déployer significativement. Loin de s’opposer, ces deux innovations entrent en synergie et l’IA permettra sans doute de dessiner les contours de métavers du futur.
De nombreux débats aujourd’hui opposent les industries culturelles et les fournisseurs de modèles d’IA notamment sur la question de la propriété intellectuelle. Pouvez vous éclairer les enjeux de ces débats ?
Les systèmes d’IA, pour effectuer les diverses tâches nécessaires à leur fonctionnement, depuis la phase de pré-entrainement des modèles de fondation jusqu’à l’affinage (fine tuning) ou l’ancrage dans l’actualité ont besoin de multiples données. Parmi elles, peuvent se trouver des « données-œuvres » c’est-à-dire des données protégées par la propriété intellectuelle. Ce qui pose des questions liées à la rémunération des ayants-droit et de transferts de valeur entre les fournisseurs d’IA et les industries culturelles.
C’est pourquoi la ministre de la Culture a souhaité que le Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA) prenne en charge une mission « relative à la rémunération des contenus culturels utilisés par les systèmes d’intelligence artificielle ». La présidence de cette mission a été confiée à la professeure Alexandra Bensamoun pour le volet juridique et moi-même pour le volet économique. Un rapport final sera remis à l’été 2025 à l’issue de la mission. Avec Bastien Blain, rapporteur de la mission pour le volet économique nous avons remis en décembre une note intermédiaire.
Pouvez vous nous préciser le contenu de cette note ? Vous parlez d’un risque de « remplacement » des œuvres ou prestations (par exemple musicales, vocales) humaines par les œuvres générées par l’IA ? Est-ce un mythe ou un risque réel ?
La vraie disruption de l’IA tient au fait que de nombreux résultats générés par IA s’apparentent à des « quasi-œuvres » et concurrencent ainsi directement les créations humaines ayant servi à leur élaboration. Les opérateurs ont en effet besoin de recourir à de très larges catalogues d’œuvres pour produire leurs résultats.
Les effets d’éviction - le déplacement de certaines tâches du travail humain aux machines - sur la création humaine s’exercent d’abord par une concurrence par les prix, en ce que l’IA permet de créer des outputs1 plus vite et de manière moins coûteuse que des humains. Les effets d’éviction s’exercent également par les quantités. La surabondance d’une offre générée par l’utilisation des systèmes d’IA risque en effet d’impliquer une saturation du marché et par conséquent, une moindre découvrabilité des œuvres humaines par l’usager, c’est-à-dire « leur capacité à être repérées parmi un vaste ensemble d'autres contenus sans que la recherche ne porte précisément sur ce contenu »2.
Quels sont les métiers des secteurs culturels les plus potentiellement exposés à des bouleversements techniques et économiques ?
Certains métiers se sentent d’ores et déjà particulièrement menacés. Les doubleurs, notamment. Les systèmes d’IA comme HeyGen, Eleven Dubs ou Deepdub, permettent de cloner des voix et de traduire des vidéos en plusieurs langues tout en adaptant les mouvements de lèvres. Leur utilisation permettrait d’éviter l'enregistrement en studio des doublages de films, séries, jeux vidéo et dessins animés par des comédiens. Cette délocalisation et cette automatisation pourraient engendrer une perte d’activité massive dans ce secteur et suscitent déjà des mobilisations de par le monde, comme ça a été le cas récemment en Californie où les systèmes d’IA pourraient reproduire la voix d'un comédien ou créer une réplique numérique d'un cascadeur, sans son consentement ou sans rémunération.
De même, le métier de traducteur sous sa forme actuelle est remis en cause. Les traducteurs reçoivent de moins en moins de demandes de traductions complètes et davantage de travaux de prestations consistant à corriger une traduction produite par un système d’IA tel que DeepL. Ce travail de post édition est parfois jugé plus chronophage et conduit de même à une rémunération moindre.
Les métiers de graphistes sont également fortement menacés par des systèmes tels Midjourney, avec la possibilité de générer par exemple des illustrations de science-fiction. Les métiers de l’écriture, comme le journalisme, sont également exposés. Par ailleurs, de nombreux livres sont écrits via des systèmes d’IA, comme témoigne le nombre important d’ebooks autopubliés sur des plateformes telles que Kindle, ou encore les morceaux de musiques générés par IA disponibles sur des sites comme Deezer ou Spotify.
Ce débat sur l’articulation entre menaces à court terme sur l’emploi et adaptation à plus ou moins long terme entre apports de l’humain et de la machine renvoie n’est certes pas une nouveauté dans l’histoire économique ; il renvoie, dans une perspective à la Schumpeter, au processus de destruction créatrice associé à toute innovation.
Mais au-delà des restructurations attendues dans les industries culturelles, ce qui est intéressant c’est que le remplacement de la création humaine par l’IA pourrait conduire, à moyen ou long terme, à une contradiction interne aux modèles d’IA eux-mêmes, et à leur possible effondrement.
Que signifie la notion d’« effondrement » des modèles ?
Une fois qu’un modèle est entraîné sur des données humaines, réelles, il est possible de l’utiliser pour générer de nouvelles données, appelées « synthétiques ». Les données synthétiques sont conçues pour imiter les propriétés statistiques et structurelles des données réelles, tout en étant générées artificiellement. Dans le cas des IA génératives actuelles, il s’agit des données créées par le modèle entraîné initialement sur des données humaines, sur demande. De ce fait, on peut, en principe, entraîner un modèle uniquement sur des données synthétiques, ou en les combinant avec des données humaines.
L'impact de l'entraînement des modèles d’IA via des données synthétiques (plutôt que produites par des humains) sur la qualité des données générées par ces modèles, a fait l’objet de divers travaux. Ces derniers s’appuient sur des mesures de la qualité des résultats et identifient les sources d’erreurs qui peuvent être à l’origine de l’effondrement de la qualité des outputs d’un modèle affiné sur des données synthétiques.
L'effondrement peut être défini comme un process dégénératif affectant la qualité de ce que produisent les modèles, dans lesquels les données générées par une première génération de modèles polluent les données sur lesquelles la prochaine génération de modèles est entraînée. En d’autres termes, la qualité des nouvelles données s’effondre après que les modèles aient été entraînés sur des données synthétiques. Au fil des itérations, le modèle apprend de plus en plus de ses propres prédictions erronées, amplifiant les erreurs jusqu'à ce qu'il apprenne essentiellement sur la base d’informations incorrectes.
Le recours aux données synthétiques est un risque réel en raison de la raréfaction de données crées par des humains. En supposant que les taux actuels de consommation et de production de données se maintiennent, les données réelles vont tendre à manquer. En effet, des recherches menées par Epoch AI prédisent que « nous aurons épuisé le stock de données textuelles de faible qualité d'ici 2030 à 2050, des données textuelles de haute qualité avant 2026, et des données visuelles entre 2030 et 2060. »
En réaction à ces risques, peut-on tirer des conclusions sur la nécessité de soutenir la création humainement produite et le secteur culturel en général ?
Dans les secteurs culturels, par analogie à la maladie de la « vache folle », on pourrait évoquer la maladie de « l’œuvre folle ». L’IA, en remplaçant la création culturelle humaine, pourrait conduire à ne créer que des « œuvres folles », synthétiques, qui finissent toutes par se ressembler ce qui, par nature, est étranger aux processus de disruption qui jalonnent toute l’histoire de l’activité artistique. De plus, ces œuvres humaines doivent elles – mêmes être diversifiées si l’on souhaite éviter la dégénérescence des modèles.
La production et l’accès à des données de qualité dans le cadre d’une infrastructure technique adaptée, et reflétant la diversité du monde réel, la diversité des langues, des cultures et des régions du globe apparait donc plus que jamais nécessaire pour alimenter le patrimoine culturel de l’humanité et le préserver.
En savoir plus :
Le site du programme de recherche ICCARE
La page web du projet sur le site de l’ANR
Inquiets de l’utilisation de l’IA, les acteurs et doubleurs de jeux vidéo vont faire grève en Californie | lefigaro.fr
1 données de sortie
2 https://www.culture.gouv.fr/catalogue-des-demarches-et-subventions/appels-a-projets-candidatures/decouvrabilite-en-ligne-des-contenus-culturels-francophones
IA et synthèse vocale : les nouvelles voix de la création
Vous avez sans doute entendu l’appel du 18 juin prononcé par le Général de Gaulle lui-même ; vu, à la télévision, l’entretien inédit de Dalida avec le présentateur Thierry Ardisson dans Hôtel du temps ; ou découvert, en 2012, la mise en voix du journal intime de Marilyn Monroe dans le film Marilyn de Philippe Parreno. Pourtant, il n’existe aucun enregistrement radiophonique de ce discours, l’un des plus célèbres de l’histoire du XXe siècle ; Dalida nous a quittés en 1987 ; et l’on n’a retrouvé aucune trace enregistrée d’un tel moment d’intimité de Marylin Monroe. Ce qui lie ces trois prouesses ? Des techniques de conversion vocale, du clonage à l’hybridation, dont s’est fait une spécialité l’Institut de recherche et coordination acoustique/musique, l’Ircam, et sa filiale technologique, Ircam Amplify. Saisissants, parfois étranges, ces avatars numériques interrogent notre rapport au réel et à l’artificiel.
L’Ircam, un pionnier dans la synthèse vocale
Les locaux de l’Ircam, situés à proximité du Centre Pompidou, sont enfouis dans les sous-sols de la capitale. À bonne distance et isolés des interférences causées par les activités humaines, explique Nicolas Obin. Fondé en 1977 par Pierre Boulez, compositeur et chef d'orchestre français, l’Ircam a construit entre la création artistique et la recherche scientifique une alliance pionnière. Dans ce laboratoire unique en France (et dans le monde), artistes et scientifiques cocréent, transforment des idées en outils concrets pour le cinéma, la musique ou encore les jeux vidéo, grâce à des technologies inédites. À l’ère de l’intelligence artificielle, de l'apprentissage profond ou deep learning et des assistants vocaux, l’Institut se place désormais comme précurseur en matière de création de voix de synthèse – ou synthèse vocale. « L’Ircam est un lieu où la recherche scientifique rencontre les besoins artistiques, offrant des solutions sur mesure impossibles à obtenir avec des outils standard », ajoute Nicolas Obin.
Ce spécialiste du traitement de la parole et de la communication humaine, qui travaille sur la voix de synthèse depuis plus d’une décennie, a piloté entre 2017 et 2021 le projet TheVoice – Design de voix pour l’industrie créative2. TheVoice comportait deux volets : d’une part, parvenir à modéliser la « palette vocale » d’un acteur ou d’une actrice pour permettre la recommandation de voix par similarité – notamment dans le cadre de doublage pour les versions françaises ; et, d’autre part, créer des voix artificielles capables de reproduire l’identité vocale d’un acteur ou d’une actrice. « La synthèse vocale à l’Ircam a toujours eu pour vocation de créer de nouveaux moyens d’expression pour les artistes, depuis les modèles basés sur la connaissance jusqu’aux modèles basés sur les données, et en particulier les réseaux de neurones profonds », précise le chercheur. « Pour explorer l’augmentation artificielle des capacités humaines, la première étape est d’être capable d’en reproduire le fonctionnement. Ainsi, le clonage de l’identité vocale constitue une première phase fondamentale préalable à la possibilité de dépassement des capacités vocales humaines. Ce sont les possibilités rendues accessibles dans une seconde phase qui deviennent intéressante pour la création », poursuit-il.
Sculpter les voix par le numérique : l’IA, une révolution ?
En 2012, la première reconstitution vocale du laboratoire a été celle de Marilyn Monroe, dans le cadre d’un court métrage de l’artiste plasticien français Philippe Parreno3 s’incarnant dans la suite de l’hôtel Waldorf Astoria où l’actrice vécut au cours des années 1950. Les chercheurs ont travaillé avec des enregistrements existants et utilisé des approches hybrides pour recréer la voix de l’actrice, mêlant performance humaine et synthèse vocale. « Dans le cas de Marilyn Monroe, c’était un défi à la fois technique et émotionnel de recréer une présence aussi iconique. À l’époque, nous avons utilisé notre créativité pour surmonter les limites technologiques. » souligne Nicolas Obin. 10 ans plus tard, en 2022, ils sont contactés par le réalisateur de Blonde, Andrew Dominik, qui « souhaitait appliquer une technique similaire pour ajuster l’accent de l’actrice, Ana de Armas ».
Entre-temps, 2016 marque un tournant. L’arrivée sur le marché de WaveNet, proposé par Google DeepMind, bouleverse le domaine de la synthèse vocale. « C'était le premier réseau de neurones capable de générer automatiquement du son de haute qualité, qu'il s'agisse de parole ou de musique », se souvient-il. « Depuis, n’importe qui peut produire une synthèse vocale extrêmement réaliste en utilisant les dernières architectures neuronales. » Comment ? Les réseaux de neurones sont utilisés pour encoder les informations liées à différents paramètres de la voix (intonation, timbre, phonèmes, etc.) à partir de grandes quantités de données (des modèles massivement multilocuteurs et multilingues, utilisant aujourd’hui des bases de données de 50 000 à 100 000 heures d’enregistrement). Le réseau de neurones apprend les corrélations statistiques entre ces paramètres à partir de grandes masses de données, ce qui permet d’en manipuler une partie seulement (comme l’intonation), tout en conservant la cohérence de l’ensemble (c’est-à-dire de préserver le naturel de la voix). « Par ailleurs, il est également possible lors de l’apprentissage de démêler ces paramètres pour rendre leur manipulation intuitive et de les recombiner à loisir », ajoute le chercheur. Grâce à ces algorithmes, ils parviennent ainsi à modéliser la structure de la voix humaine pour en générer de nouvelles, de remodeler des voix existantes, ou d’en recomposer à partir de plusieurs voix ou sources sonores.
Capture extraite de la vidéo L’appel du 18 Juin reconstitué par l'intelligence artificielle ?
Un défi relevé par Le Monde, en partenariat avec l’Ircam et Ircam Amplify,
qui a tenté de recréer l’appel du 18 juin 1940 du général de Gaulle,
dont il n’existe aucun enregistrement4. © Le Monde
TheVoice : redonner vie aux voix du passé, imaginer celles de demain
Les réseaux de neurones ont ainsi révolutionné la synthèse vocale. Ces avancées permettent aujourd’hui de transférer l’identité vocale d’une personne à une autre avec une simple empreinte sonore de quelques secondes à quelques minutes (comme des archives audios) contre de longues heures auparavant. « À l’Ircam, nous avons développé des algorithmes qui permettent de manipuler la voix d’un acteur ou d’un chanteur, modifiant des paramètres tels que le timbre, l’intonation ou même l’émotion. » Ces procédés, qui reposent sur des choix d’interprétation humains, ont été utilisés dans le cadre du projet TheVoice pour recréer des voix historiques, comme celle de Dalida dans Hôtel du Temps, à partir de la voix d’une comédienne, Julie Chevallier ; celle de l’appel du 18 juin du Général de Gaulle, pour laquelle l’acteur et humoriste François Morel s’est prêté au jeu ; ou encore Marilyn Monroe, précédemment citée. Leurs travaux ont aussi permis de créer des voix complètement artificielles, comme dans l’œuvre d’Alexander Schubert, AnimaTM . « TheVoice a été un projet de recherche décisif pour la réalisation d’avancés majeures de conversion neuronale de l’identité vocale », s’enthousiasme Nicolas Obin. Pour lui, Ircam Amplify a joué un véritable rôle d’accélérateur du transfert de résultats de recherche en solution exploitable dans des productions artistiques et industrielles.
Éthique et algorithmes : comment dépasser les polémiques ?
Au-delà du potentiel certain de l’IA générative dans les métiers créatifs, Nicolas Obin met toutefois en garde contre l'emballement qui l’entoure. D’abord, parce que ces nouvelles technologies risquent d’amplifier les problèmes écologiques et éthiques du numérique. Par exemple, peut-on moralement « réveiller » des voix défuntes ? Difficile d’écarter le fait que les voix du passé véhiculent immanquablement des souvenirs. Pour un documentaire d’Arte, les chercheurs ont travaillé à recréer celle d’Isaac Asimov, l’un des pères de la science-fiction. Mais le projet n’a pu être finalisé à la suite du refus de la fille d’Asimov d’intégrer la voix artificielle de son père dans le documentaire. Ensuite, parce qu’elles soulèvent aussi des défis économiques et artistiques qui bouleversent les écosystèmes fragiles de la création sonore et musicale.
Le chercheur insiste ainsi sur l’importance de transparence et d’éthique pour ces technologies face, notamment, aux enjeux des deepfakes, depuis les risques en termes de cybersécurité et de manipulation malveillante par usurpation d’identité vocale, jusqu’aux questions de création artistique et musicale. « On entend souvent dire que l’Europe régule pendant que le reste du monde innove. Mais ce n’est pas vrai. D’une part, la France et l’Europe possèdent des atouts en recherche scientifique et en innovation technologique ; et, d’autre part, nous avons la possibilité et la responsabilité d’exprimer une voix singulière et de promouvoir des propositions alternatives, pensées dans leurs implications éthiques, culturelles et sociétales, depuis la conception des algorithmes comme de leurs usages pour la création », pointe le chercheur.
Dans ce but, Nicolas Obin a récemment publié une tribune, avec un collectif de scientifiques de l’Ircam, dans le dernier numéro de la revue du ministère de la Culture, Culture et Recherche, consacrée à l’IA : « Pour une intelligence artificielle responsable au service d’une création musicale, inventive et diverse ». Dans ce texte, ils appellent à une IA augmentative et non remplaçante, un moyen d’amplifier la créativité humaine plutôt que l’automatiser ou la supplanter. « L’artiste a toujours utilisé tous les moyens à disposition dans son environnement pour créer. Ce qui était produit à partir des moyens de la nature hier est devenu technologique et artificiel aujourd’hui, et il est tout autant naturel de les utiliser. » Le collectif réaffirme et généralise le principe d’exception culturelle, ouvrant ainsi de nouvelles perspectives pour les industries créatives. « Chaque technologie a ses bénéfices et ses risques. Il faut une vision raisonnée qui évalue les usages potentiels de manière équilibrée, sans tomber dans l’hystérie, qu’elle soit optimiste ou alarmiste. », conclut-il.
À lire
.Clones, filtres et fakes...Éthique et IA, par Pierre Saint-Germier, philosophe (CNRS)
1 Nicolas Obin est Maître de conférences à Sorbonne Université et chercheur dans l'équipe Analyse et synthèse des sons au sein du laboratoire Sciences et technologies de la musique et du son (STMS, CNRS / Sorbonne Université / Ircam / Ministère de la Culture).
2 https://anr.fr/Projet-ANR-17-CE23-0025
3 https://www.cinematheque.fr/film/134143.html
4 Sont impliqués dans cette reconstitution : Ircam Amplify : Frédéric Amadu, Directeur technique, Elias Karam, Chef de projet ; Ircam : Axel Roebel, Directeur de recherche de l’équipe Analyse et Synthèse des Sons au sein du laboratoire STMS, Sylvain Cadars, Ingénieur son et musique assistée par ordinateur.
5 https://www.ircam.fr/agenda/animatm-2/detail
La malédiction de la pré-image ou pourquoi l’IA peut-elle (encore) générer un chien à cinq pattes
Imaginons un modèle d’intelligence artificielle dont le but est de déterminer si deux mots sont synonymes. La proximité phonétique ne sera guère utile, pas plus que la comparaison du nombre de lettres, ni même des lettres utilisées. « Château » et « chapeau » sont en effet proches sur ces trois plans, mais loin de désigner le même objet ou concept. Il faut donc trouver un autre moyen, et cela passe par enseigner à notre modèle d’IA à apprendre à partir d’une représentation de ce que sont des synonymes dans le langage. « Nous avons besoin d’exemples à lui fournir, et ça tombe bien : nous ne manquons pas de dictionnaires des synonymes », pointe Paul Honeine, Professeur en intelligence artificielle à l’université de Rouen Normandie. « Il suffit alors d’entrer des mots en lui disant s’ils sont synonymes ou pas. »
La tâche serait fastidieuse s’il fallait apprendre à l’IA la totalité des synonymes, en lui précisant également leur degré de proximité. « Couvre-chef » est un synonyme plus proche de « chapeau » que ne l’est « bonnet », pourtant synonyme éloigné. Alors, pour simplifier les choses, les spécialistes recourent à des réseaux de neurones profonds : une succession de nœuds de calculs en couche, chaque résultat d’un calcul étant poussé vers la couche suivante, constituant ainsi une série d’opérations complexes. « L’enjeu de l’apprentissage profond est de faire apprendre à l’intelligence artificielle la bonne représentation. Dans un monde parfait, nous parlerions d’ailleurs d’apprentissage de représentation, et pas d’apprentissage profond », souligne Paul Honeine. Et pour cela, il faut… changer d’espace ! Pas de panique, nous restons bien sur Terre.
Changer d’espace, en mathématiques, c’est augmenter ou diminuer le nombre de dimensions. Un peu comme passer de l’observation d’un océan en 2D, à sa contemplation en 3D. À la surface : un plan bleu, sans volume. En 3D, l’océan prend toute sa profondeur, et on peut alors en découvrir les volumes, les reliefs, et toute la vie. « À mesure que l’on s’enfonce sous la surface, on apprend plus de choses, mais on perd également en visibilité », avertit le chercheur. Car si l’apprentissage de représentation permet à l’IA de découvrir de nouveaux liens entre les éléments qui lui ont été fournis, elle le fait de manière de plus en plus obscure à mesure qu’elle jongle entre les dimensions. Or, pour l’IA comme pour le plongeur, vient un moment où il faut remonter à la surface.
Sortir la pré-image des abysses
« Nous ne savons pas ce que le modèle d’IA a appris en profondeur, donc il faut contrôler », insiste Paul Honeine. Un point crucial, à la fois pour vérifier l’efficacité du modèle, mais aussi pour pouvoir l’expliquer, à l’heure où de plus en plus de questions se posent quant à la transparence des systèmes intelligents. Or, cette remontée à la surface est loin d’être évidente. Parlons en termes plus techniques : il s’agit de trouver la pré-image, c’est-à-dire de projeter le résultat obtenu dans un espace opaque pour l’humain, vers l’espace de départ que nous autres humains pouvons appréhender. L’IA a utilisé plusieurs fonctions mathématiques pour apprendre la représentation dans un autre espace. « Nous ne connaissons rien de cette représentation obtenue par l’IA, donc nous ne connaissons rien non plus de la fonction de retour vers la pré-image », simplifie Paul Honeine.
Prenons un nouvel exemple avec une IA entraînée à reconnaître des animaux. L’humain lui fournit des exemples d’animaux (en surface). Elle traite ces images par une série de fonctions, qui permettent de modifier la dimension et de rentrer ainsi dans l’espace d’analyse (l’IA plonge). Là, l’IA trouve des paramètres de similitudes ou d’exclusions pour regrouper les animaux (en profondeur). À présent, elle doit revenir dans l’espace initial intelligible pour l’humain (en surface). Sauf que, mathématiquement, ce passage n’est pas bijectif. Autrement dit : pour un résultat obtenu en profondeur, il existe plusieurs pré-images possibles en surface. « L’IA peut avoir très bien appris à séparer les animaux, mais lorsque nous lui demandons ce qu’est un chien, elle peut nous remonter un chien à cinq pattes », explique le chercheur. « C’est tout le problème, ou plutôt la malédiction, de la pré-image. ».
C’est pour tenter de lever ce mauvais sort que Paul Honeine et son équipe ont monté le projet ANR APi (Apprivoiser la pré-image), lancé en 2019 pour une durée de 4 ans. L’équipe a travaillé sur des méthodes mathématiques pour intégrer des a priori dans les modèles d’apprentissage. Cela revient à exclure des solutions possibles, pour concentrer l’IA sur des résultats crédibles. « Corriger les résultats a posteriori, en analysant chaque réponse et en disant si elle est juste ou non, serait trop fastidieux, bien que ce soit le plus simple », problématise le chercheur. « Ce que nous voulons, c’est plutôt prévenir l’IA en amont que telle solution ne sera pas acceptable, par exemple parce qu’un animal à cinq pattes n’existe pas. »
Des graphes moyens pour des molécules précises
Dans le cadre du projet APi, les équipes ont travaillé sur des problèmes plus complexes que la reconnaissance de chiens et de chats. Parmi les cas d’étude, on trouve notamment la chimie moléculaire. L’objectif est ici d’entraîner une IA à apprendre les propriétés des molécules, leurs fonctionnalités, pour pouvoir ensuite lui demander de générer des molécules répondant à des spécifications particulières. Une perspective attrayante pour la médecine ou la cosmétique, car cela pourrait permettre un jour d’aider les chimistes à synthétiser de nouvelles molécules. « Par exemple, nous avons un ensemble de molécules avec chacune des propriétés intéressantes, et nous voulons en générer d’autres qui contiennent ces propriétés », détaille Paul Honeine. « S’il s’agit d’un ensemble de trois molécules, nous voulons échantillonner à l’intérieur d’un triangle où les trois molécules sont des sommets, comme un barycentre en géométrie. » Toutefois, les molécules sont des entités complexes, et la réalité se révèle plus délicate que de trouver une forme géométrique moyenne. « Lorsque nous représentons ces molécules par apprentissage profond, nous apprenons un espace de représentation approprié dans lequel nous pouvons faire ces opérations. »
Illustration des opérations de transformations non linéaires pour une couche de réseaux de neurones profonds sur graphes. Chaque résultat du calcul est poussé vers la couche suivante, produisant ainsi une série d’opérations complexes qui rendent les résultats obtenus de plus en plus obscurs à appréhender.
© Projet ANR APi / Université de Rouen Normandie
Là encore, il a fallu résoudre le problème de la pré-image. L’IA apprend en profondeur à reconnaître les structures moléculaires et les différentes fonctions chimiques (alcool, ester, cétone, etc.). Or, la chimie est régie par des règles strictes, comme le fait qu’un atome de carbone ne puisse avoir que quatre liaisons chimiques. Il faut donc apprendre à l’IA à ne pas remonter des molécules comportant des atomes de carbone avec plus de quatre liaisons – car ce sont des aberrations –, afin d’obtenir des molécules crédibles.
Génération d'une molécule barycentre à partir d’un ensemble de molécules disponibles. Alors qu’il est pratiquement impossible de la calculer directement, les réseaux de neurones profonds permettent de représenter les molécules, modélisées par des graphes, dans un espace approprié pour les calculs. La synthèse de la molécule barycentre est alors obtenue en revenant à l’espace des molécules par la résolution du problème de pré-image.
© Projet ANR APi / Université de Rouen Normandie
Synthèse de molécules par interpolation entre deux molécules. Le concept d’interpolation, difficilement concevable directement sur les molécules, est opéré facilement en représentant ces deux molécules par apprentissage profond, puis en opérant l’interpolation dans l’espace de représentation obtenu. Le retour à l’espace initial permet de synthétiser les molécules intermédiaires. Ainsi, on retrouve une série d’opérations pour transformer la molécule d'en haut à gauche en celle d'en bas à droite, où les opérations élémentaires sont l’insertion et la suppression d'un atome ou d'une liaison chimique.
© Projet ANR APi / Université de Rouen Normandie
L’équipe du projet APi utilise ces résultats dans d’autres domaines – comme les séries temporelles – pour exploiter des données qui ne sont pas échantillonnées sur des temps réguliers, afin d’en tirer du sens. En marge des sujets de recherche, le projet a également mené à la création de deux start-ups. La première, Xpdeep, entend générer des réseaux de neurones explicables, où il est aussi question de comprendre le retour à l’espace initial de représentation. La seconde, Tellux, s’affaire à développer des modèles d’IA sur les images des caméras hyper-spectrales, pour lesquelles chaque pixel n’est plus composé de trois couleurs, mais d’un spectre de réflectance plus large permettant d’analyser, par exemple, les éléments chimiques présents dans un sol. « L’objectif est de pouvoir éclairer les chimistes grâce à l’IA en détectant des polluants ou des éléments spécifiques dans la terre », explicite Paul Honeine. « Avec, là encore, des problématiques de retour à l’espace initial pour justifier clairement la présence d’hydrocarbures ou de métaux lourds par exemple. » Plus d’explicabilité, donc plus de confiance dans l’IA.
Calcul d’une moyenne de plusieurs séries temporelles. La colonne de gauche présente des exemples de cinq caractères manuscrits et d’une spirale. La colonne de droite illustre la forme moyenne de chacun, obtenue par la résolution du problème de pré-image.
© Thi Phuong Thao Tran (2020) Interpretable time series kernel analytics by pre-image estimation. Computer Arithmetic. Université Grenoble Alpes, thèse de doctorat
Décrypter les dynamiques environnementales avec l’IA
Coordonné par Anne Puissant, Professeure au sein du Laboratoire image, ville, environnement (LIVE) de l’Université de Strasbourg, le projet TIMES (2017-2022) a réuni les expertises complémentaires en géosciences, en informatique et en sciences des données du LIVE, de l’EOST (École et Observatoire des Sciences de la Terre), de l’IRIMAS (Institut de recherche en Informatique, Mathématiques, Automatique et Signal de l’Université de Haute-Alsace), du LIPADE (Laboratoire d'informatique Paris Descartes de l’Université Paris Cité) et d’ICube (Laboratoire des sciences de l'ingénieur, de l'informatique et de l'imagerie de l’Université de Strasbourg), avec pour objectif de créer des outils et modèles pour exploiter des données massives, hétérogènes et acquises à de très hautes fréquences temporelles.
Développer de nouvelles chaînes d’exploitation des données satellitaires et géophysiques
Les données d’observation de la Terre, qui peuvent être utilisées pour cartographier et surveiller l'environnement, sont de natures très diverses. Il peut s’agir de nuages de points topographiques, de photographies aériennes ou terrestres – par exemple acquises par des drones –, d'images satellitaires avec des données en 3D ou encore de données de capteurs au sol tels que des réseaux de sismomètres. Cette prolifération de données, produites quotidiennement, représente un véritable défi en matière d’analyse pour identifier des signaux d’intérêt pertinents.
Les satellites européens de la mission Sentinel-2 sont conçus pour jouer un rôle clé de cartographie des classes d'occupation des sols et de surveillance des changements au fil du temps. ©ESA/ATG medialab
L’exemple des images satellitaires illustre avec pertinence la massification des données disponibles. « Avec la mise en orbite du premier satellite de la mission Sentinel-2 en 2015, il a été possible d’acquérir tous les 5 jours des images de 100 km par 100 km à 10 m de résolution spatiale, alors qu’auparavant de telles images étaient, en moyenne, disponibles seulement une fois par mois. Cette haute fréquence temporelle constituait à la fois un levier d’accélération de la production de connaissances et un verrou à lever, rendant nécessaire la mise en place de nouveaux outils et modèles d’exploitation des données », explique Anne Puissant. Le défi est d’autant plus grand que les séries d’images nécessaires pour étudier certains objets ou dynamiques se déploient sur plusieurs années, permettant de documenter des trajectoires d’évolution. Ceci engendre de tels volumes de données qu’il est nécessaire de disposer d’espaces de stockage tant pour ces données de référence que pour des données temporaires issues des calculs, ainsi que de ressources de calcul suffisantes et adaptées (calculateur haute performance, HPC). Dans le même ordre d’idée, avec le déploiement en continu de réseaux de capteurs au sol et un accès facilité aux données grâce aux entrepôts de données, il est possible d’analyser des volumes plus importants de données, à plus haute fréquence temporelle, et de détecter des signaux sismiques encore inconnus ou non catalogués.
Au cœur du projet TIMES se trouvait la mission de développer et valider des chaînes de traitement adaptées à l’analyse de ces données massives en s’appuyant sur des méthodes d'IA basées sur l'apprentissage automatique et l'apprentissage profond. Ainsi, plusieurs chaînes d’apprentissage automatique capables de détecter et d'identifier les signaux de glissements de terrain ou de volcans dans les enregistrements sismologiques, ou de mieux cartographier et détecter les changements dans les tissus urbains, c’est-à-dire les caractéristiques des quartiers des villes, à partir d’images satellitaires ont été élaborées.
Travailler à l’échelle des territoires
L’ancrage dans les territoires a constitué une des forces du projet TIMES. Comme le souligne Anne Puissant : « Les travaux des équipes de recherche ont été menés au plus près des problématiques territoriales, car il est essentiel de répondre à des besoins exprimés par les acteurs locaux et les collectivités. L’IA adaptée aux images satellitaires permet d’étendre les surfaces étudiées à l’ensemble d’une région ou d’un pays, et ce changement d’échelle apporte de nouvelles clés de compréhension aux scientifiques et aux décideurs publics. »
Grâce à l’IA, les scientifiques et les décideurs publics bénéficient de nouvelles clés de compréhension des dynamiques environnementales.
Dans la Région Grand Est, le contexte urbain et périurbain a été cartographié en suivant plusieurs classes d’utilisation et d’occupation des sols sur la base de séries temporelles d'images satellitaires. Des méthodes fondées sur l'apprentissage automatique non supervisé ont été conçues pour surveiller la dynamique des surfaces d'eau et leur extension en cas d’inondation. D'autres méthodes, basées sur l'apprentissage profond, ont également été développées pour le suivi de la couverture végétale et du tissu urbain. Elles permettent aux gestionnaires publics de mieux connaître les dynamiques intra-urbaines, d’identifier les zones en construction et de suivre l’évolution des villes.
Résultat d'inférence d'un modèle de segmentation sémantique sur plusieurs villes en France (Dijon, Lille, Orléans) à l'aide de l'IA et à partir d'images du satellite Sentinel-2. © projet TIMES – Référence : Wenger, R., Puissant, A., Weber, J., Idoumghar, L., & Forestier, G. Exploring inference of a land use and land cover model trained on MultiSenGE dataset. Joint Urban Remote Sensing Event (JURSE), 2023.
Les territoires de montagne (Alpes françaises) ou volcaniques (océan Indien, Mayotte) ont également fait l’objet de développements spécifiques en relation avec les activités d’observation long terme pilotés par l'École et Observatoire des Sciences de la Terre (EOST). Le projet a permis de créer des méthodes, supervisées et non supervisées, de détection de sources sismiques ignorées ou mal connues telles que des glissements de terrain (par exemple pour créer des catalogues d’événements et comprendre leur déclenchement en lien avec le climat) ou les volcans (par exemple pour suivre le déroulement des séquences éruptives, depuis les chambres magmatiques en profondeur jusqu’à la surface et aux cratères).
Détection des séquences éruptives et de leur chronologie en appliquant des techniques d’IA de type apprentissage auto-supervisé (SSL) à des données sismologiques marines. Exemple du volcan sous-marin de Fani Maoré (Mayotte, océan Indien) avec des exemples d’événements sismologiques (traces du signal et spectrogrammes) et leur classification en groupes (ici appelés cluster) qui se succèdent dans le temps. © Rimpôt et al. (2025), doi.org/10.1093/gji/ggae361.
Ouvrir les modèles et les données
« Pour qu’un modèle d’IA ait la capacité de prédire, par exemple une classe d’occupation des sols ou un type de source sismique, il est nécessaire de disposer de données d’entraînement. L’un des enjeux pour nous était donc de diffuser les résultats de nos travaux et de mettre à la disposition de la communauté scientifique les jeux de données constitués, les modèles d’IA entraînés et les codes d’analyse, afin que d’autres puissent les utiliser pour leurs recherches, dans le cadre d’une politique de science ouverte », précise Anne Puissant.
Il était essentiel de mettre à la disposition de la communauté scientifique nos modèles d’IA et les jeux de données.
Par l’intermédiaire de l’Infrastructure de recherche Data Terra et de ses pôles de données thématiques – THEIA (pour les surfaces continentales) et ForMaTerre (pour la Terre solide) –, il est possible d’accéder aux résultats obtenus dans le cadre du projet TIMES. Certaines chaînes de traitement, en particulier celles développées pour détecter les glissements de terrain et la manière dont ces derniers se déforment, ont également été mises à la disposition des chercheurs et des chercheuses via la plateforme européenne d’analyse GEP (Geohazards Exploitation Platform).
Répondre aux nouveaux enjeux de l’IA
Afin de poursuivre et d’approfondir les travaux du projet TIMES, d’autres projets ont émergé, tels que les projets de recherche HighLand (2021-2025) et le projet M2-BDA débutant en 2025 avec le soutien de l’ANR (Appel à projets générique 2024). Parmi les réflexions qui orienteront les travaux de l’équipe de recherche M2-BDA, deux dimensions reflètent les enjeux majeurs actuels en matière de recherche scientifique et d’IA.
La première concernera la durabilité et l’empreinte environnementale des modèles utilisés. Comme le rappelle Anne Puissant, « certains modèles d’IA sont très consommateurs en ressources ou nécessitent énormément de données d'entraînement pour obtenir des résultats ».
La seconde consistera à trouver des solutions pour faire fonctionner des modèles sur des problématiques ne disposant pas de volumes suffisants de données d’entraînement. « Dans certains cas, il peut être intéressant d’entraîner un modèle plus petit et de le rendre ensuite adaptable à d'autres données ou de trouver des approches qui vont être moins supervisées, non guidées par des exemples, tout en veillant à construire les modèles les plus pertinents possibles. Il faudra donc être vigilant et choisir les bonnes stratégies d’IA. », conclut Anne Puissant.
"L’intelligence artificielle, c’est l’électricité du futur !" Entretien avec François Terrier, codirecteur du PEPR IA
Pouvez-vous nous présenter la genèse de ce programme et ses ambitions ?
François Terrier : A l’origine, la demande de l’Etat était de construire un programme et équipement prioritaire de recherche (PEPR) d'orientations thématiques autour des fondements de l'IA pour répondre aux enjeux que sont la frugalité, l'embarqué et le décentralisé, l’IA de confiance et les fondements mathématiques au service de l'IA. Nous avons lancé une consultation auprès de la communauté française et récupéré environ 250 propositions, idées de projets. Notre volonté a été de construire des projets qui auraient un impact et une coopération entre des équipes de recherche pour disposer ensuite d’une capacité de diffusion au niveau national et international. Nous avons retenu neuf projets qui associent chacun environ cinq partenaires sur l’ensemble du territoire.
Les grandes missions du PEPR sont ainsi de structurer la communauté de recherche en IA, relever des défis scientifiques dans des domaines comme l'IA frugale, embarquée, distribuée et de confiance, mais aussi attirer des talents internationaux et encourager l'engagement de l'industrie française.
Des échanges sont noués également avec les autres programmes de recherche de France 2030 aux enjeux connexes : Cybersécurité, Cloud, Numpex, Diadème sur les matériaux, Santé numérique, Electronique, Spintronique. Plus d'une dizaine d'ateliers, séminaires, participations à des actions communes ont déjà été réalisés depuis le lancement en mars 2024. On a parié sur le fait que des équipes qui ne collaboraient peut-être pas initialement se regroupent pour travailler ensemble et cela s'est bien passé.
Nous proposerons également des chaires sur quatre ans sur des travaux rattachés aux thématiques des projets.
Côté formation et attractivité, nous allons recruter 150 thésards, quelques post-doc, CDD… Un appel à projets complémentaire sur les mathématiques vient également d'être publié.
A l’international, la communauté IA nous a par ailleurs bien identifiés. En tant que directeurs du programme, nous sommes de plus en plus sollicités pour intervenir dans des sessions de conférences internationales, comme récemment à IA for Good à Bruxelles.
Mots de fin de François Terrier, CEA, pilote du programme PEPR IA, lors de son lancement le 25 mars 2024, à Grenoble. © Inria / Photo C. Morel
Sur quelles thématiques les équipes de vos projets travaillent-elles actuellement ?
Les trois grands axes des projets sont liés aux fondements mathématiques, à la frugalité et l’IA embarquée ; l'apprentissage décentralisé. Un volet confiance aborde des questions liées à la robustesse, à la fiabilité et à la sûreté des fonctions réalisées en IA. Trois projets planchent plus particulièrement sur l’IA de confiance : un sur les fondations de la robustesse, avec une approche statistique de la confiance. Un autre sur l’intégration des mécanismes de causalité dans l'apprentissage soit une confiance par construction de l'information causale dans l'apprentissage. Une troisième approche plus « à risque » consiste à évaluer l’apport des méthodes formelles pour la vérification des modèles, de la spécification jusqu'à l'analyse des modèles pour leur validation.
Un autre projet réfléchit aux fondements de l’apprentissage pour la frugalité et quatre autres couvrent le continuum entre l’IA décentralisée et l’IA embarquée avec des attentions particulières sur la sécurité, l’optimisation des modèles, les architecture électroniques adaptatives et enfin les modèles de calcul émergents, proches de l'électronique, qui sont en capacité de modifier la manière de concevoir les algorithmes d'apprentissage en intégrant ces modèles de calcul dès le niveau algorithmique.
Ils bénéficient tous et échangent avec un grand projet sur les mathématiques pour l’IA afin de bénéficier des dernières avancées dans ce domaine pour l’élaboration de méthodes et algorithmes de rupture.
Pouvez-vous nous expliquer ce que sont les méthodes formelles ?
Lorsque l’on cherche à qualifier une IA, notamment un modèle à la base d'apprentissage, il y a des approches statistiques : on va tester puis essayer de voir statistiquement comment se passent ces tests. Et il y a des approches de preuves : des approches mathématiques sont utilisées pour démontrer que le modèle fonctionne bien dans telle situation ou démontrer qu'il existe des situations où il ne fonctionnera pas. Cette dernière approche est dite « formelle ». Les logiciels embarqués dans les avions, les trains, les centrales nucléaires sont prouvés en termes de fonctionnement correct par ce type d'approches.
Pour faire simple, il s’agit de projeter des méthodes de validation fortes, utilisées dans les logiciels classiques, sur les logiciels à base de réseaux de neurones, dont les résultats sont par essence moins prévisibles.
Avez-vous déjà obtenu de premiers résultats sur ces méthodes formelles ou d’autres domaines ?
Sur les méthodes formelles, une équipe de notre projet SAIF a obtenu la deuxième place dans un challenge international de vérification de très haut niveau, ce qui donne une visibilité au niveau international des avancées sur ce sujet.
Un autre point à souligner est la sortie de la norme Afnor sur l’IA frugale en juin dernier à laquelle ont contribué une trentaine de personnes issues à la fois des grands organismes porteurs du PEPR, mais aussi des universités, des écoles et des industriels. C’est en lien avec la thématique du projet SHARP, particulièrement investi dans ces actions, mais aussi du projet HOLIGRAIL.
Cette spécification est une première mondiale. Il s’agit d’une recommandation visant à répondre à plusieurs questions : comment évaluer l'impact de l'IA en termes de consommation de ressources, quelle maîtrise mettre en place, et comment ensuite communiquer sur le résultat de l'évaluation ?
La France se retrouve en tête au niveau international en proposant une première manière de faire. L’implication des chercheurs du PEPR montre que la recherche, qui se fait en amont sur les fondements algorithmiques et l'optimisation, est partie prenante dans la maîtrise de la frugalité de l’IA.
En termes de publications, nous sommes aussi très actifs puisque nous comptons plus de 52 publications répertoriées en fin d’année dernière dont 40 % dans le cadre de conférences de premier rang en intelligence artificielle : NeurIPS, ICML, ICLR, IJCAI, DATE.
Les PEPR IA Days auront lieu en mars prochain, en quoi consistent-ils ?
Il s’agit d’une grande action structurante sur trois jours. Toute la communauté du PEPR et la communauté nationale sont invitées à y assister.
Les équipes partageront leurs résultats à raison de deux à quatre présentations par projet, soit une trentaine de présentations scientifiques. Nous prévoyons des keynotes sur la frugalité pour sensibiliser l'ensemble de la communauté, une keynote sur les liens entre algorithme et matériel et une sur les avancées du machine learning. Nous invitons aussi des acteurs capables de donner une vision des enjeux sociaux, scientifiques, industriels.
Trois tables rondes aborderont les enjeux du déploiement en écho à une vision industrielle ; l'évolution de la recherche, notamment avec le rôle des agences de programmes ; les synergies avec les grandes structures, notamment les IA Clusters qui viennent d’être lancés.
Nous mènerons aussi une réflexion sur les moyens de développer le rayonnement de la communauté IA française à l'Europe. Enfin, il est prévu une présentation des plateformes dédiées à l'IA : le supercalculateur Jean Zay, le projet P16, la plateforme Aidge qui sont des objets supportés par l'état et qui nous permettront d'intégrer des résultats et d'expérimenter.
Le sommet met particulièrement en avant la frugalité en IA. Pouvez-vous nous dire en deux mots, ce qu’elle est actuellement, ce qu'on aimerait qu'elle devienne ?
La frugalité en IA c'est : un niveau de performance égal ou supérieur, en utilisant moins de données, moins de calculs et moins d'énergie et de ressources associées au calcul.
Et ceci, à même performance et, surtout, en confiance. C'est à dire en étant capable de qualifier la qualité des services rendus. Par exemple, si une application sert à générer des comptes rendus de réunions, il faut s’assurer que ceux-ci reflètent bien les informations importantes, ce qui n’est pas si simple !
Un challenge de la Direction générale de l’armement (DGA) a eu lieu en juin dernier pour évaluer de la recherche d'informations dans des documents entre une approche très grands modèles de langue (LLM) et des approches avec des petits modèles de fondation. On a pu montrer qu’avec un modèle 50 fois plus petit, on pouvait avoir une performance à peu près deux fois meilleure.
Ces solutions permettent d’avoir des performances supérieures, avec une augmentation de la qualité des résultats, une baisse de consommation de données et un modèle à la base demandant moins de calcul.
L'IA générative (IAG) qui fait le « buzz » est très énergivore sur le plan environnemental. Mais elle étouffe le discours et éclipse la réalité. Le marché de l’IA, est estimé par différentes études à 85 % d’IA non générative et 15% d’IA générative. C'est certes un très gros enjeu stratégique mais notre programme se porte sur l’ensemble de l’apprentissage. Nous abordons l’IAG tout de même : en particulier au sein du projet SHARP ou un cas d’usage de l’apprentissage frugale porte sur l'application des nouveaux algorithmes au traitement du langage avec des approches en LLM. De même, dans l'appel sur les mathématiques qui vient d’être publié, il est explicitement demandé aux déposants de réfléchir aux enjeux de l’IA générative et aux mathématiques en général.
Notre conviction, c'est que pour que l'IA se déploie dans les métiers et dans le quotidien, il faut résoudre a minima les problèmes de frugalité et de confiance. Si on ne prend pas en main la question de l'impact, des coûts, de la performance et de la confiance de ce type de technologies, il y a un fort risque que le déploiement se fasse mal ou de manière marginale...
Quels sont les enjeux de cette confiance dans l'IA ?
Les enjeux sont d’abord réglementaires. L’AI Act, réglementation en vigueur, va commencer à s'appliquer avec une première échéance en février 2025, puis par paliers, en août 2025, août 2026 et août 2027.
Elle va imposer à tous les fournisseurs de systèmes utilisant de l’IA un certain nombre d’exigences sur la confiance dans l’IA, d’analyse de risques, de démonstration de sûreté, de traçabilité, d’explicabilité, de transparence… La confiance est également un élément clés pour les questions d'acceptabilité et d’éthique. C’est un enjeu européen, et national, d'aider l'ensemble des acteurs à satisfaire la conformité à cette réglementation. L’AI Act est issue du groupe de réflexion de la Commission européenne sur l’éthique de l’IA, elle est donc fondée sur la défense des valeurs sociétales européennes.
Par ailleurs, avec l’IA embarquée, on essaye d’être au plus proche de la production des données des utilisateurs, ce qui va réduire les flux, assurer plus de confidentialité : les données ne circulent pas partout. C’est une autre voie de réponse aux questions de frugalité et de confiance. Les applications seront ainsi plus facilement déployables, acceptables. Cela ouvre le marché aux industriels et renforce la confiance des utilisateurs. Par exemple, à la maison, vous pourrez disposer d’un système de suivi consommation de chauffage qui optimisera le fonctionnement de celui-ci en fonction de vos habitudes de vie. Soit toutes les données personnelles captées seront envoyées sur le cloud avec un grand acteur du secteur qui collecte et définit un algorithme ; soit la technologie embarquée sera capable d’apprendre en local de vos habitudes avec peu de données et de piloter le système de chauffage depuis la maison.
Avez-vous déjà noué des partenariats avec des entreprises privées, notamment qui développent de nouvelles applications et technologies ?
On est à l'écoute de leurs besoins à condition qu’ils les expriment et qu’on arrive à les comprendre en termes d'enjeux de recherche. Tous les projets sont lancés avec des thématiques et des sujets à risque.. Des échanges pour communiquer sur les résultats disponibles auprès du secteur économique sont prévus, notamment lors de nos journées « PEPR IA Days ». L'idée, c'est d'impliquer de plus en plus les acteurs économiques, les SATT, les PME, grands groupes pour, d'une part, qu'ils soient informés des avancées de recherche et qu'ils fassent part des verrous qui leur sont essentiels à lever.
Quelles seraient d’autres applications concrètes de l’IA dans la vie de nos concitoyens, qui n'existent pas forcément encore ?
Nous sommes positionnés sur des recherches fondamentales sur l’IA. Les applications potentielles sont plutôt traitées dans les autres PEPR (Matériaux, Santé numérique, Cybersécurité etc.). Et c’est complexe car l'IA, c'est l'électricité du futur ! A terme, elle sera partout. L’IAG va pouvoir générer et trouver des solutions auxquelles on n'avait pas pensé, être un assistant dans de multiples tâches, soit pour automatiser des choses, soit pour aider à vérifier des choses dans tous les domaines des automatismes, de l'assistance quotidienne. Il y aura des algorithmes dans la vie quotidienne, dans les tondeuses à gazon, pour nos loisirs et nos activités au travail : tout ce qui va permettre de rendre des services numériques accessibles au plus grand nombre. Mais il y aura aussi les IA intégrées sans lien direct avec l’usager, dans les avions, les trains, les voitures, les usines…
Et doit-on avoir un peu peur ces mutations, quid de l’intelligence humaine ?
Il est assez clair que l’IA va faciliter la prise en charge de tâches répétitives. Mais l’intelligence humaine se loge dans la manière d'organiser la tâche, de gérer les répétitions, de décider. Au quotidien, il ne s’agira pas d’installer des robots dans toutes les maisons, mais expliquer à une machine ce qu’on souhaite qu’elle fasse peut être intéressant sans pour autant remettre en cause nos compétences, nos arbitrages. On est bien contents de pouvoir s’appuyer sur une perceuse pour accrocher un tableau !
La tendance de la technologie, c'est d'essayer de réduire la pénibilité, de prendre en charge du répétitif et de réaliser des tâches que l’on ne saurait effectuer sans machine : creuser un tunnel sans outil de forage est compliqué par exemple ! L’IA est un outil technologique qui va suivre cette mouvance, avec ses atouts et ses risques, ses impacts sociétaux et politiques propres.
En savoir plus :
La page du programme sur le site de l’ANR
Programme des PEPR IA Days : Save The Date : PEPR IA Days 2025 - PEPR IA