Résolution de coréférence pour la traduction automatique – CREMA
Dans ce projet nous voudrions faire un pas en avant dans le domaine de la traduction automatique neuronale au niveau du document en choisissant dynamiquement l'information contextuelle que le modèle va utiliser pour générer ses traductions. Ceci est en opposition avec les travaux actuels dans lequel l'information contextuelle est fixée à priori. Cette dernière solution ne se montre pas très efficace même avec des contextes relativement courts. Ceci est dû au fait que dans la plupart des cas le modèle peut traduire efficacement une phrase sans aucun contexte. Les mots nécessitant un contexte étant relativement rares, apprendre des paramètres d'un modèle pour leur prise en compte est donc difficile, puisque le signal d'apprentissage est creux.
Dans notre projet nous souhaitons étudier des modèles avec un contexte plus compacte. Le choix du contexte est basé cependant sur un module capable de détecter les informations plus ambiguës qu'un modèle de traduction puisse rencontrer : les phénomènes discoursifs, et en particulier les anaphores et les coréférences.
Un autre aspect que nous souhaitons étudier dans le projet est la spécificité de l'évaluation des modèles de traduction neuronale au niveau du document. En effet pour ces modèles la métriques BLEU n'est pas adaptée. Les mots nécessitant un contexte pour une correcte traduction étant relativement rares, leur correcte traduction a peu d'effet sur la métrique BLEU, leur correcte traduction, et plus en général des traductions contextualisées ont cependant beaucoup d'impact sur leur qualité telle que ressentie par un lecteur. Pour mieux évaluer les modèles contextuels, des "test suites contrastives" ont été conçues.
Nous trouvons que ce type d'évaluation peut être amélioré en utilisant des phrases plus réalistes, les test suites actuelles étant constituées principalement de phrases artificielles choisies ad hoc.
Les objectifs principaux du projet CREMA (Coreference REsolution into Machine trAnslation) sont 1) concevoir des nouveaux modèles neuronaux pour la detection de coréférences ; 2) intégrer un module de coréférences dans les modèles NMT au niveau du document pour une prise en compte dynamique du contexte ; 3) concevoir une nouvelle "test suite" adaptée à l'évaluation de modèles NMT intégrant les phénomènes discoursifs.
Coordination du projet
Marco Dinarelli (Laboratoire d'Informatique de Grenoble)
L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.
Partenariat
LIG Laboratoire d'Informatique de Grenoble
Aide de l'ANR 253 055 euros
Début et durée du projet scientifique :
décembre 2021
- 48 Mois