État de l'art : évaluation, détection et mitigation des hallucinations des LLMs
Aygalic Jara-Mikolajczak
Résumé : Cet article présente un état de l'art sur les hallucinations produites par les grands modèles de langue (LLMs). L'objectif de ce travail est double : dresser un panorama des recherches actuelles dans ce domaine et souligner l'importance de prendre en considération les hallucinations lors de la conception des systèmes incorporant des LLMs. Pour ce faire, nous commençons par la définition du problème. Nous présentons ensuite les différentes méthodes d'évaluation, suivis des techniques de détection et de mitigation des hallucinations, tout en discutant leurs forces et limites méthodologiques.
Mots clés : Hallucinations, état de l'art, évaluation, détection, mitigation