Suite pour l'automatisation de l'interpretabilité des algorithmes d'apprentissage automatique – FAbLe
Les dernières avancées technologiques s'appuient sur des systèmes précis d’aide à la décision qui se comportent comme des boîtes noires. C'est-à-dire que la logique interne du système n'est pas disponible à l'utilisateur. Ce manque d'explication peut entraîner des problèmes techniques, éthiques et juridiques. Pour cette raison, de multiples travaux de recherche fournissent des explications compréhensibles pour les décisions d’algorithmes d’apprentissage automatique, tels que les réseaux de neurones. Toutes ces approches reposent sur des explications sous la forme de modèles plus simples tels que des fonctions linéaires ou des arbres de décision. Néanmoins, il n'existe pas un moyen simple de choisir le modèle d'explication le mieux adapté à un cas d'utilisation particulier. Notre proposition, appelée FAbLe (Framework for Automatic Interpretability in Machine Learning), vise à automatiser entièrement ce processus afin de fournir les explications les plus fidèles et compréhensibles.
Coordination du projet
Luis Galárraga (Centre de Recherche Inria Rennes - Bretagne Atlantique)
L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.
Partenaire
Inria Rennes Centre de Recherche Inria Rennes - Bretagne Atlantique
Aide de l'ANR 195 207 euros
Début et durée du projet scientifique :
février 2020
- 48 Mois