CE23 - Intelligence artificielle et science des données 2025

Analyse Mathématique de l'Apprentissage et de l'Extraction de Motifs – MAPLE

Analyse Mathématique de l'Apprentissage et de l'Extraction de Motifs

Le projet repose sur l’écart entre le succès empirique des réseaux de neurones profonds et l’absence d’une compréhension mathématique rigoureuse de la manière dont ils apprennent des représentations à partir des données. Il vise à développer un cadre théorique unifié expliquant l’apprentissage de caractéristiques, la généralisation et les phénomènes émergents, afin de permettre des systèmes d’IA plus efficaces, évolutifs et interprétables.

Le projet vise à élaborer une théorie mathématique de la feature learning dans les réseaux de neurones, en abordant des enjeux clés tels que la généralisation et la structure des données.

Le projet Mathematical Analysis of Pattern Learning and Extraction (MAPLE) vise à répondre à l’une des questions les plus cruciales de l’apprentissage automatique moderne : comment les réseaux de neurones apprennent des caractéristiques à partir des données et comment cela influence leurs capacités de généralisation. Malgré leur succès généralisé, les mécanismes mathématiques qui sous-tendent l’apprentissage de caractéristiques dans les réseaux de neurones profonds restent mal compris. Ce manque de compréhension limite notre capacité à concevoir des modèles plus efficaces et évolutifs, notamment dans un contexte de ressources computationnelles de plus en plus contraintes. MAPLE ambitionne d’établir un cadre mathématique complet expliquant comment les réseaux de neurones s’adaptent aux données durant l’entraînement, avec un accent particulier sur l’apprentissage de représentations. Le projet s’articule autour de trois questions fondamentales : 1. Comment les réseaux de neurones s’adaptent-ils à la structure des données ? 2. Comment les choix d’architecture, tels que les réseaux convolutionnels ou les transformers, influencent-ils les représentations apprises ? 3. Comment les capacités émergentes des réseaux de neurones résultent-elles de l’apprentissage des features ?

Le projet MAPLE repose sur une approche interdisciplinaire à l’interface entre théorie de l’apprentissage automatique, physique statistique et probabilités en grande dimension. Il vise à construire des modèles mathématiques de réseaux de neurones à la fois représentatifs et analytiquement tractables, afin d’étudier de manière rigoureuse les dynamiques d’entraînement, la généralisation et les phénomènes émergents.

 

Un pilier central est l’utilisation des outils de la physique statistique des systèmes désordonnés, historiquement mobilisés pour analyser des systèmes complexes composés de nombreuses interactions. Des notions comme les transitions de phase, les paysages d’énergie ou les phénomènes collectifs permettent d’interpréter l’apprentissage comme une dynamique globale, où des changements brusques de performance (grokking, lois d’échelle) s’apparentent à des phénomènes critiques. Ce lien, hérité notamment des travaux sur les verres de spin, constitue une source d’inspiration majeure pour la compréhension de l’apprentissage profond.

 

Le projet mobilise également les probabilités en grande dimension et la théorie des matrices aléatoires pour caractériser la géométrie des représentations apprises et la structure des données. Ces outils permettent d’analyser la propagation de l’information, les modifications induites par l’apprentissage dans les poids du réseau, ainsi que leur impact sur la généralisation. Des approches spectrales et asymptotiques sont notamment utilisées pour identifier des structures de rang faible, des transitions de phase et des comportements de type loi d’échelle.

 

Du point de vue de l’apprentissage automatique, MAPLE étudie des architectures simplifiées mais pertinentes (réseaux pleinement connectés, convolutionnels, mécanismes d’attention), entraînées par des méthodes à base de gradient. Le projet adopte une stratégie de type « diviser pour mieux comprendre », en isolant les rôles de la structure des données, de l’architecture et de la dynamique d’entraînement, avant de les intégrer dans un cadre théorique unifié.

 

Dans son ensemble, la méthodologie du projet s’inscrit dans une convergence disciplinaire historiquement riche et de plus en plus influente, où les idées issues de la physique statistique et des probabilités offrent un langage puissant pour comprendre, prédire et, à terme, concevoir le comportement de réseaux de neurones complexes à grande échelle.

Le projet MAPLE vise à aborder l'une des questions les plus pressantes de l'apprentissage automatique moderne : comment les réseaux de neurones apprennent-ils des caractéristiques à partir des données et comment cela impacte-t-il leurs capacités de généralisation ? Malgré leur succès généralisé, les mécanismes mathématiques qui sous-tendent l'apprentissage des caractéristiques dans les réseaux neuronaux profonds restent mal compris. Cette lacune freine notre capacité à concevoir des modèles plus efficaces et évolutifs, particulièrement à une époque où les ressources computationnelles deviennent de plus en plus limitées.

MAPLE cherche à établir un cadre mathématique complet qui explique comment les réseaux de neurones s'adaptent aux données pendant l'entraînement, avec un accent particulier sur l'apprentissage des représentations. Cette compréhension est cruciale pour faire progresser la conception des modèles d'apprentissage profond, en dépassant les méthodes traditionnelles basées sur les noyaux qui ne parviennent pas à capturer la richesse de l'apprentissage des caractéristiques. Le projet aborde trois questions fondamentales : (1) Comment les réseaux de neurones s'adaptent-ils à la structure des données ? (2) Comment les choix architecturaux, tels que les réseaux convolutionnels ou les transformers, influencent-ils les représentations apprises ? (3) Comment les capacités émergentes des réseaux de neurones résultent-elles de l'apprentissage des représentations ?

En développant une théorie mathématique qui unit la structure des données, l'architecture des réseaux et les dynamiques d'entraînement, MAPLE vise à fournir des idées concrètes pour concevoir des modèles plus frugaux et plus efficaces. Cela améliorera non seulement les performances, mais offrira également une approche raisonnée pour l'ajustement des hyperparamètres et la sélection des architectures, rapprochant ainsi notre compréhension théorique actuelle de la pratique de l'apprentissage profond.

Coordination du projet

Bruno Loureiro (Département d’Informatique (DIENS))

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenariat

DIENS Département d’Informatique (DIENS)

Aide de l'ANR 290 560 euros
Début et durée du projet scientifique : octobre 2025 - 24 Mois

Liens utiles

Explorez notre base de projets financés

 

 

L’ANR met à disposition ses jeux de données sur les projets, cliquez ici pour en savoir plus.

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter