Une Librairie pour Évaluer l’Interprétabilité des Modèles de Langue
- DOI
- 10.24348/coria.2024.abstract_16
Les modèles les plus récents basés sur les Transformers, dans les domaines du traitement automatique des langues (TAL) et de la recherche d’information (RI), sont réputés pour leur opacité dans le processus décisionnel. Pour pallier cette limitation, des techniques d’interprétabilité ont émergé, visant à rendre les modèles plus transparents. Malgré la disponibilité de nombreuses ressources pour ces techniques, leur intégration reste complexe. Ce travail propose une librairie intégrée pour évaluer l’interprétabilité des modèles, facilitant ainsi des évaluations rapides et robustes. Cet article est une version résumée de K. Maachou et al. (2024), “eval-rationales: An End-to-End Toolkit to Explain and Evaluate Transformers-Based Models”, accepté comme article de démonstration à ECIR 2024.