talnarchives

Une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue.

État de l'art : évaluation, détection et mitigation des hallucinations des LLMs

Aygalic Jara-Mikolajczak

Résumé : Cet article présente un état de l'art sur les hallucinations produites par les grands modèles de langue (LLMs). L'objectif de ce travail est double : dresser un panorama des recherches actuelles dans ce domaine et souligner l'importance de prendre en considération les hallucinations lors de la conception des systèmes incorporant des LLMs. Pour ce faire, nous commençons par la définition du problème. Nous présentons ensuite les différentes méthodes d'évaluation, suivis des techniques de détection et de mitigation des hallucinations, tout en discutant leurs forces et limites méthodologiques.

Mots clés : Hallucinations, état de l'art, évaluation, détection, mitigation