Flash Info
CE23 - Intelligence Artificielle

Bias, intégrité et éthique des modèles TALN compressés – DIKE

Résumé de soumission

La traitement automatique de la langue a fait un bond en avant grâce à l’architecture Transformer inventée en 2017, permettant l’apprentissage parallélisé sur GPU. Cela a permis l'entraînement de modèles de langue avec de nombreux paramètres (BERT étant le plus connu). Ces modèles sont très exigeants en quantité de mémoire de sorte que des techniques de compression de modèles ont ainsi été proposées comme la quantification de poids, l’élagage des poids, ou la distillation. Ces méthodes permettent de conserver la même justesse (accuracy) avec un gros gain d’espace mémoire. Au-delà de la justesse, nous étudierons comment la compression influe sur le biais, la perte d’équité ou de capacité éthique des modèles compressés (rien n’est jamais gratuit). Nous proposerons également de nouveaux algorithmes qui préviendront, par nature, des problèmes de bias, équité ou d’éthique dans les représentations apprises ou les prédictions faites.

Coordination du projet

Christophe Gravier (Laboratoire Hubert Curien)

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenariat

LabHC Laboratoire Hubert Curien
ERIC Entrepôts, Représentation et Ingénierie des Connaissances
NLE Naver France

Aide de l'ANR 566 364 euros
Début et durée du projet scientifique : décembre 2021 - 48 Mois

Liens utiles

Explorez notre base de projets financés

 

 

L’ANR met à disposition ses jeux de données sur les projets, cliquez ici pour en savoir plus.

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter