talnarchives

Une archive numérique francophone des articles de recherche en Traitement Automatique de la Langue.

Adaptation des connaissances médicales pour les grands modèles de langue : Stratégies et analyse comparative

Ikram Belmadani, Benoit Favre, Richard Dufour, Frédéric Bechet, Carlos Ramisch

Résumé : Cet article présente une étude sur l'adaptation des grands modèles de langue (LLMs) à des domaines spécialisés disposant de données limitées. Bien que certaines recherches remettent en question le pré-entraînement adaptatif (DAPT) dans le contexte médical en anglais, nous montrons que l'adaptation au domaine peut être efficace sous certaines conditions. En prenant comme exemple l'adaptation au domaine médical en français, nous comparons de manière systématique le pré-entraînement continu (CPT), l'affinage supervisé (SFT) et une approche combinée (CPT suivi de SFT). Nos résultats indiquent que l'adaptation d'un modèle généraliste à de nouvelles données dans le domaine médical offre des améliorations notables (taux de réussite de 87%), tandis que l'adaptation supplémentaire de modèles déjà familiarisés avec ce domaine procure des bénéfices limités. Bien que CPT+SFT offre les meilleures performances globales, SFT-seul présente des résultats solides et requiert moins de ressources matérielles.

Mots clés : Grands modèles de langue (LLMs), Pré-entraînement continu (CPT), Affinage supervisé (SFT), Médical, Français.