Vers des LLMs fiables pour les tâches de la recherche d'information
- DOI
- 10.24348/coria.2024.court_19
Les grands modèles de langage (LLMs) ont émergé comme un outil largement utilisé pour la recherche d’information, mais il reste difficile pour l’utilisateur de détecter si leur réponse est fiable ou hallucinée. Dans ce travail, notre objectif est de permettre aux LLMs de répondre à une requête de façon sourcée, améliorant ainsi leur factualité et leur vérifiabilité. Les travaux existants reposent principalement sur les moteurs de recherche commerciaux et l’évaluation humaine, ce qui rend difficile la reproduction et la comparaison des différentes approches de modélisation. Nous proposons un système multi-phases et ouvert qui permet de restituer des documents supports et générer des réponses avec citations. De plus, nous explorons les différentes méthodes possibles pour évaluer ce système et ses diverses composantes de manière automatique.