Projets financés
Les Processus Gaussiens (PG) sont un des outils les plus populaires en statistique et apprentissage artificiel. Ils sont à la base d'une large gamme de techniques utilisées en lissage de données, pour la classification non-linéaire ou pour les représentations en variables latentes. Le rôle des P
Building on recent advances in the field, we propose to enlarge the scope of automated rule mining to numerical and existential rules. The resulting constraints could be used to spot errors in the data or even to predict missing pieces in the knowledge. The particular challenge in the context of k
Du fait de l'abondance des données, les techniques d'apprentissage automatique doivent maintenant être à même de gérer des informations de plus en plus massives et complexes (vidéo, sons, paroles, textes, clics, recommandation). A titre d'exemple, l'un des principaux défis pour la reconnaissance d'o
L’imagerie biologique et notamment les microscopies de fluorescence jouent un rôle prépondérant en sciences du vivant et dans le domaine biomédical. Son principe consiste à imager, à la limite de la diffraction optique (200 nm), les objets intracellulaires d’intérêt marqués par sondes fluorescentes
Les plates-formes de crowdsourcing offrent l'opportunité sans précédent de mettre en contact facilement fournisseurs de tâches, ou taskers, et travailleurs, ou workers, localement ou pas, pour du travail payé ou du bénévolat, et pour des tâches diverses. En autorisant la recherche fine de workers ay
Les méthodes bayésiennes sont un ensemble d'algorithmes statistiques pour mettre à jour une connaissance scientifique à partir d'une expérience. Elles transforment données et modèles en décisions, en prenant en compute les incertitudes sur les modèles et leurs paramètres, ce qui les rend populaires
Le projet BIG4 vise à développer de nouveaux algorithmes de reconstruction statistique de champ sur grille, telles que des images ou des champs de densité ainsi que de fournir un environnement d'analyse à travers les technologies Web. Il permettra ainsi de créer une plateforme synergique et à haute
Nous proposons de développer des algorithmes et des outils logiciels pour l’analyse de données de séquençage de troisième génération. Le séquençage de troisième génération est une technologie émergente qui ouvrent de nouvelles perspectives pour l’étude des génomes, des transcriptomes, des métagénome
Résumé du projet Le crowdsourcing désigne le recours à une masse (potentiellement très grande) de participants via Internet pour résoudre des tâches d'acquisition ou d'analyse de données. Il s'agit d'une technologie en pleine expansion impactant de nombreux domaines, depuis l'enrichissement de
Les méthodes de factorisation de matrices et de tenseurs constituent un cadre général pour un large éventail de techniques en apprentissage automatique et en traitement du signal, fournissant à la fois des modèles statistiques pertinents ainsi que des procédures de calcul efficaces pour l'implément
En pleine évolution de l'informatique moderne, l'optimisation évolutionnaire se dirige rapidement vers l'ère du "big", où la nature grande échelle des applications implique des modèles d'optimisation plus larges, avec un nombre élevé de variables et d’objectif contradictoires. L'optimisation multi-o
La mise à disposition de nouvelles technologies pour l’accès à l’information nécessite de réconcilier l’expressivité des langages formels mis en œuvre pour faire des requêtes sur les données, et l’utilisabilité de ces outils de recherche pour l’utilisateur final. Par exemple, le langage SQL s’est im
Les masses de données sont aujourd'hui générées à un rythme sans précédent. Malgré cette croissance phénoménale de données, la capacité humaine à les traiter reste aussi limitée qu'au paravant. Par conséquent, l'ère DU "Big Data" est confrontéE à un écart croissant entre la croissance des données et
ROOT développera des méthodes numériques de résolution de problèmes importants rencontrés en informatique graphique et vision par ordinateur via la théorie du transport optimal de masse. Ces problèmes concernent les histogrammes et peuvent être avantagement écrits et résolus par des regressions do
Les objectifs du projet TREMoLo sont de : 1. étudier et caractériser l'emploi des registres de langue dans des textes écrits ; 2. développer des méthodes automatiques de transformation de textes d'un registre vers un autre ; 3. paver le chemin pour une généralisation de l’approche à d’autres comp
1/ Formaliser les étapes du raisonnement et les données nécessaires au processus de localisation de victimes en montagne et proposer une méthode suggérant la prochaine question à poser à la victime afin d’améliorer la collecte des indices de localisation et faciliter ainsi la prise de décision. 2/
Deezer, Spotify, Pandora ou Apple-Music enrichissent l’écoute de pièces musicales par la biographie ou les albums du même artiste, et proposent des suggestions pour écouter d’autres oeuvres ou artistes “proches” (sans que la proximité ne soit définie). Un journaliste ou un animateur radio utilise s
Le projet Pamela vise à développer un nouveau paradigme pour l'apprentissage automatique décentralisé. Les objectifs de ce projet sont motivés par des problématiques et applications concrètes fournies par nos partenaires : SNIPS et Mediego. Ces deux entreprises développent des systèmes de recommanda
Avec le volume important de données non structurées présentes dans les bases bibliographiques, mais aussi le développement de bases de connaissances ouvertes, accéder aux connaissances qu'elles contiennent nécessitent de produire une vision globale à partir de multiples sources hétérogènes. Pour cel