Projets financés
Qualité des graphes de connaissances à partir des tendances émergentes récentes en anglais, français et allemand avec l'exemple du COVID-19 – QualityOnt
La pandémie COVID-19 a arrêté les activités sociales et économiques aujourd'hui. Le coût total de cette pandémie est estimé à 16 billions USD en ne considérant que les États-Unis et en agrégeant la mortalité, la morbidité, les problèmes de santé mentale et les pertes économiques directes dans l'hypo
Bias, intégrité et éthique des modèles TALN compressés – DIKE
La traitement automatique de la langue a fait un bond en avant grâce à l’architecture Transformer inventée en 2017, permettant l’apprentissage parallélisé sur GPU. Cela a permis l'entraînement de modèles de langue avec de nombreux paramètres (BERT étant le plus connu). Ces modèles sont très exigeant
Analyse Formelle de Concepts : un outil intelligent pour l'anayse de données complexes – SmartFCA
L’Analyse de Concepts Formels (AFC) est un cadre mathématique qui s’appuie sur la théorie des treillis pour la découverte de connaissances, la classification et l’analyse de données en général. Elle est proche de la recherche de motifs (« patterns ») en fouille de données et peut s’utiliser couramme
Analyse Discursive Automatique Multi-Objectifs – AnDiAMO
Les phrases ne s'enchaînent pas aléatoirement, les segments textuels sont liés en une structure discursive pour former des documents cohérents. Développer des systèmes pouvant interpréter des documents et en extraire une information structurée est un défi majeur en traitement automatique des langues
Apprentissage Contrefactuel pour Data-to-text Contrôlé – ACDC
Le projet ACDC s'appuie sur les avancées en génération de la langue via des architectures neuronales, pour aborder des problématiques de synthèse textuelle d'informations contenues sous forme de données tabulaires. Un accent particulier est porté sur la recherche d'invariance dans les données d'en
Lecture Virtuelle d’Histoires pour Enfants : Aspects Expressifs et Cognitifs de la Voix de Synthèse – EXOVOICES
La surexposition des enfants aux écrans engendre des conséquences néfastes pour leur cognition, alors que les histoires audio peuvent avoir un impact positif sur leur engagement attentionnel et imaginatif. La lecture virtuelle d'histoires par voix de synthèse peut améliorer l'immersion et l'imaginat
Traitement automatique des langues pour la PRÉdiction du risque de Décès ou de réHospitalisation des patients Insuffisants Cardiaques – PREDHIC
Si les performances techniques du traitement automatique des langues ont crû ces dernières années, il est important d'étudier comment il contribue à une tâche d'aide à la décision qui aide un spécialiste en exploitant le contenu de textes. Dans ce contexte, le domaine spécialisé limite les données
Exploitation de structures spectrales pour l'apprentissage de graphe et ses appliciatons – MASSILIA
Ce projet propose de répondre à des problématiques actuelles d’apprentissage de graphes (et ses applications) en dérivant de nouveaux outils méthodologiques centrés sur la décomposition spectrale de la matrice laplacienne (et/ou matrice d’adjacence). Les objectifs sont de 1) contrôler directement ce
Generation de contre-arguments pour lutter contre la désinformation en ligne – ATTENTION
La désinformation en ligne n'est pas un phénomène nouveau, mais elle a pris une ampleur sans précédent, notamment lors de la crise sanitaire du Covid-19. Les médias sociaux limitent la viralité de la désinformation principalement par la modération du contenu. Cependant, il ne suffit pas d'identifier
Segmentation, clustering, et seriation actifs et passifs: vers des fondations unifiées en IA – ASCAI
L'apprentissage non supervisé est l'un des problèmes les plus fondamentaux de l'apprentissage automatique, et plus généralement de l'intelligence artificielle. Au sens large, cela revient à apprendre, à partir d'un jeu de données, une structure latente. Cette structure peut être intéressante en soi,
Trajectoires Environnementales Sémantiques de Territoires – TRACES
Observer les trajectoires environnementales des territoires est essentiel pour analyser leur évolution en termes de préservation de la nature ou de résilience au changement climatique, et pour élaborer les politiques publiques futures en matière d’environnement et d’aménagement du territoire. Le pro
Induction de lexiques sémantiques pour l'interprétabilité et la diversité en traitement de textes – SELEXINI
L'enthousiasme actuel pour le deep learning en TAL rencontre des limites. D'une part, l'opacité des modèles neuronaux rend leur comportement difficile à interpréter. D'autre part, l'évaluation via des benchmarks a tendance à ignorer les biais de ceux-ci, limitant la robustesse et la couverture des g
Apprentissage progressif par multi-transfert pour une navigation autonome plus sûre – MultiTrans
Le développement d’algorithmes pour le véhicule autonome (VA) se heurte à d’important défis tout au long de leur conception et implémentation. Le coût élevé et le peu de tests en conditions réelles limitent l’expérience qu’une Intelligence Artificielle (IA) embarquée peut construire (faible nombre d
Personnalisation de services en ligne respectueuse de la vie privée – PROPEOS
La plupart des plateformes en ligne implémentent un modèle économique dans lequel l’accès aux services est gratuit en échange de l’exploitation des données utilisateur. Les profils utilisateurs, créés à partir des données partagées, sont exploités pour personnaliser les services proposés et en amél
Knowledge Flow – kFLOW
L'histoire de l'humanité est composée d'un flux continu d'événements. Chacun d'entre eux peut avoir un impact sur les événements suivants et contribuer à l'évolution des connaissances humaines. Les graphes de connaissances tentent d'encoder les informations sur les faits et les événements, mais ne p
Comprendre les réseaux profonds grâce à la théorie des jeux – UNDERNEATH
L'analyse théorique des réseaux de neurones profonds (DNN) est sans doute l'une des directions de recherche les plus difficiles en apprentissage automatique à l'heure actuelle, car elle oblige les scientifiques à trouver de nouveaux outils mathématiques pour expliquer leur comportement. Dans ce proj
Résolution de coréférence pour la traduction automatique – CREMA
Dans ce projet nous voudrions faire un pas en avant dans le domaine de la traduction automatique neuronale au niveau du document en choisissant dynamiquement l'information contextuelle que le modèle va utiliser pour générer ses traductions. Ceci est en opposition avec les travaux actuels dans lequel
Approche IA pour un Liage de Données CEntré sur les Données – DACE-DL
Avec la science ouverte et les principes FAIR, les données liées ont gagné en popularité pour l'échange, la fédération et le partage de (méta)données sur le Web. Le liage de données est le défi scientifique d'établir automatiquement des liens entre les entités de jeux de données structurés. Des syst
Action, Logique, Raisonnement et Spiking networks – ALoRS
Ce projet porte sur la conception d’une architecture hybride multiagent. Il aborde de manière pluridisciplinaire l’étude des réseaux de neurones conceptuels à base de spikes appelés « spiking neural networks » (SNN), qui ont l’avantage non seulement d’être biologiquement crédibles, mais propices à ê
Deep Learning et Modélisation Numérique – DeepNuM
OBJECTIF : DeepNuM vise à développer l'interaction entre les réseaux neuronaux profonds (RN) et les équations différentielles partielles (EDP), pour modéliser des systèmes dynamiques issus de l'observation de phénomènes naturels. Trois questions centrales sont ciblées : comment adapter et appliquer
Optimization asynchrone décentralisée de modèle d'apprentissage automatique – ADONIS
L’apprentissage statistique étudie des problèmes toujours plus grands, nécessitant plus de données, plus de ressources numériques et des recherches coûteuses d’hyper-paramètres. Cela est en particulier vrai pour l’apprentissage profond, qui nécessite beaucoup d’ingénierie qui rend les modèles diffic
Profondeur de données à grande échelle : calcul et applications – LS-Depth-CaP
Introduit par John Tukey, la profondeur des données mesure la centralité d'une observation par rapport aux données. Étant non paramétrique, robuste, possédant des propriétés d'invariance attrayantes, la profondeur des données remplace la densité et les quantiles dans de nombreuses applications. Cepe
Digitalisation humaine profonde à partir d'une entrée minimale – DeepHD
L'objectif de ce projet est de développer une nouvelle génération de méthodes basées sur l'apprentissage profond qui peuvent créer des répliques 3D digitales précises de personnes habillées à partir d'une seule image couleur capturée avec une caméra grand public. Ces répliques peuvent prendre la for
Convolution et Decimation pour les réseaux de neurones sur graphes – CoDeGNN
De nombreux objets de notre vie actuelle sont discrets et décrits par des séquences d'éléments (chaînes de caractères) ou des relations plus complexes (par exemple des graphes). Inférer des informations de ces objets discrets relève du domaine de la reconnaissance structurelle de formes. Ce champ di
Édition d'imgage avec des réseaux génératifs profonds – IDeGeN
Le but de ce projet est d'utiliser les réseaux de neurones génératifs afin d'effectuer de l'édition d'images, et notamment l'édition d'attributs "haut niveau", tels que l'expression ou l'apparence d'un visage. Cela est notammement nécessaire pour l'industrie de la post-production des films. Actuel
Nouveaux challenges en segmentation d'images médicales par apprentissage profond – MEDISEG
La segmentation automatique des images médicales joue un rôle prépondérant pour le diagnostic et la thérapeutique. Les réseaux de neurones convolutionnels profonds (CNN) représentent l’état de l’art, mais présentent des limites, notamment sur la plausibilité des segmentations générées. Notre hypothè
Réservoirs Profonds pour le Traitement et la Production du Langage – DeepPool
Le langage implique plusieurs niveaux hiérarchiques d'abstraction. Les modèles traitent souvent d'un niveau particulier d'abstraction ce qui les rend incapables de modéliser des processus ascendants et descendants. De plus, nous ne savons pas comment le cerveau ancre les symboles aux perceptions et
Colorisation automatique de vidéos – Arce
La colorisation d’images ou de vidéos consiste à proposer une mise en couleurs d’un document originellement noir et blanc. Il s’agit d’une technique très utilisée pour la restauration de films patrimoniaux, de photographies d’archives, ou pour certains effets artistiques. Des méthodes de colorisatio
Processus de décision multi-agent de confiance pour l'Internet des Objets – MaestrIoT
Le déploiement d'un internet des objets dans des environnements ouverts et dynamiques soulève plusieurs questions liées à la fiabilité de ses composants. Il est irréaliste de considérer que chaque composant matériel ou logiciel est fiable, digne de confiance et efficace quelles que soient les condit
Recherche et visualisation de Motifs Spatio-Temporels fréquents dans un grand graphe – MoS-T
Les progrès technologiques récents entraînent une production massive de données spatio-temporelles, pouvant être modélisées par un graphe, qu’il est crucial d’analyser. Or, ces données sont bien souvent caractérisées par un volume et une complexité jamais atteints précédemment. Malgré le dynamisme d
Apprentissage profond pour la génération de mouvements humains – DELEGATION
DELEGATION vise à proposer un cadre basé sur l'apprentissage profond pour générer des séquences de squelettes 2D/3D représentant les mouvements humains avec une expressivité variée telle que les émotions, les styles et les spécificités morphologiques. Nous proposons de démêler les descripteurs de dy
Estimation et prédiction récursive de la déformation de la Terre à partir de séries temporelles d'images SAR – REPED-SARIX
La stratégie d’acquisition systématique et le libre accès aux images radar à synthèse d’ouverture (SAR) Sentinel-1 ont propulsé l’exploitation des données SAR vers une nouvelle ère, offrant aux scientifiques à la fois des opportunités et des défis pour la surveillance opérationnelle de la déformatio
Interactions entre l’imagerie de télédétection multimodale et le texte pour un accès facilité à l’information – TAMMI
Les images de télédétection, produites en grande quantité, contiennent des informations qui sont déjà utilisées pour suivre le changement climatique, améliorer la sécurité et comprendre l'environnement. Ces données sont cependant difficiles à interpréter et impliquent souvent un traitement manuel. A
Plongements lexicaux temporels et dynamiques basés graphes – DIGING
Les approches récentes d’apprentissage de plongements lexicaux ont mis l’accent sur les résultats, souvent au détriment de l’interprétabilité et de la com-plexité algorithmique. Pourtant, l’interprétabilité est un pré-requis nécessaire à la mise en œuvre de telles technologies lorsqu’elles son
Graphes Aléatoires en Apprentissage Statistique – GRandMa
Le but du projet GrandMa est d’explorer l’utilisation de la théorie des Graphes Aléatoires (RG) en Apprentissage Statistique (ML) sur graphes. En effet, les grands graphes apparaissent dans de nombreux domaines, et leur modélisation statistique est essentielle. De manière étonnante, cette dernière e
Collecte, représentation, complétion, fusion et interrogation de données de réseaux d'eau urbains hétérogènes et incertaines – CROQUIS
Les gestionnaires des réseaux d'eau urbains sont de plus en plus confrontés à l'analyse de données/informations hétérogènes massives (données géographiques imprécises et incertaines, cartes numériques/analogiques, etc.). L'analyse intelligente de ces données est un défi auquel il est nécessaire de s
Intégration des traits cognitifs humains dans les agents intelligents synthétiques afin de comprendre la dynamique du marché – CogFinAIgent
Comprendre comment des individus interagissent dans des structures socio-économiques de grande taille telles que les marchés financiers est un défi majeur. Il s’agit d’élucider comment les marchés influencent la prise de décision des individus et réciproquement, d’élucider la façon dont les particul
Méthodes d'explicabilité de nouvelle génération – NIM-ML
Les algorithmes d'apprentissage statistique atteignent aujourd'hui des résultats impressionnants dans de nombreuses applications pratiques. Cependant, ces performances se sont accompagnées d'une complexification foudroyante des modèles utilisés. Il est aujourd'hui presque impossible pour un humain d
Traduire la langue des signes avec la vision par ordinateur – CorVis
Le projet CorVis vise à développer des techniques de traduction en langue des signes, basées sur les progrès récents de l'intelligence artificielle, en particulier dans les domaines de la vision par ordinateur et de la traduction automatique. L'analyse du langage des signes à partir de données vidéo
Collaboration entre processus ponctuels de Markov et réseaux neuronaux : application à la reconstruction de fresques – ARTEAK
Ce projet a pour objectif d'améliorer les capacités de reconstruction par ordinateur de très grandes fresques en faisant collaborer des approches existantes de manière innovante dans des conditions réalistes. La reconstruction basée image consiste à déterminer l'organisation spatiale optimale entre