Raffinage des représentations des tokens dans les modèles de langue pré-entraînés avec l’apprentissage contrastif : une étude entre modèles et entre langues
Anna Mosolova, Marie Candito, Carlos Ramisch
Résumé : Les modèles de langue pré-entraînés ont apporté des avancées significatives dans les représentations contextuelles des phrases et des mots. Cependant, les tâches lexicales restent un défi pour ces représentations en raison des problèmes tels que la faible similarité des representations d'un même mot dans des contextes similaires. Mosolova et al. (2024) ont montré que l'apprentissage contrastif supervisé au niveau des tokens permettait d'améliorer les performances sur les tâches lexicales. Dans cet article, nous étudions la généralisabilité de leurs résultats obtenus en anglais au français, à d'autres modèles de langue et à plusieurs parties du discours. Nous démontrons que cette méthode d'apprentissage contrastif améliore systématiquement la performance sur les tâches de Word-in-Context et surpasse celle des modèles de langage pré-entraînés standards. L'analyse de l'espace des plongements lexicaux montre que l'affinage des modèles rapproche les exemples ayant le même sens et éloigne ceux avec des sens différents, ce qui indique une meilleure discrimination des sens dans l'espace vectoriel final.
Mots clés : sémantique lexicale, word-in-context, affinage