CE23 - Intelligence artificielle

Suite pour l'automatisation de l'interpretabilité des algorithmes d'apprentissage automatique – FAbLe

Résumé de soumission

Les dernières avancées technologiques s'appuient sur des systèmes précis d’aide à la décision qui se comportent comme des boîtes noires. C'est-à-dire que la logique interne du système n'est pas disponible à l'utilisateur. Ce manque d'explication peut entraîner des problèmes techniques, éthiques et juridiques. Pour cette raison, de multiples travaux de recherche fournissent des explications compréhensibles pour les décisions d’algorithmes d’apprentissage automatique, tels que les réseaux de neurones. Toutes ces approches reposent sur des explications sous la forme de modèles plus simples tels que des fonctions linéaires ou des arbres de décision. Néanmoins, il n'existe pas un moyen simple de choisir le modèle d'explication le mieux adapté à un cas d'utilisation particulier. Notre proposition, appelée FAbLe (Framework for Automatic Interpretability in Machine Learning), vise à automatiser entièrement ce processus afin de fournir les explications les plus fidèles et compréhensibles.

Coordination du projet

Luis Galárraga (Centre de Recherche Inria Rennes - Bretagne Atlantique)

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenaire

Inria Rennes Centre de Recherche Inria Rennes - Bretagne Atlantique

Aide de l'ANR 195 207 euros
Début et durée du projet scientifique : février 2020 - 48 Mois

Liens utiles

Explorez notre base de projets financés

 

 

L’ANR met à disposition ses jeux de données sur les projets, cliquez ici pour en savoir plus.

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter