Attention sur les spans pour l'analyse syntaxique en constituants
Nicolas Floquet, Nadi Tomeh, Joseph Le Roux, Thierry Charnois
Résumé : Nous présentons une extension aux analyseurs syntaxiques en constituants neuronaux modernes qui consiste à doter les constituants potentiels d'une représentation vectorielle affinée en fonction du contexte par plusieurs applications successives d'un module de type transformer efficace (pooling par attention puis transformation non-linéaire).Nous appliquons cette extension à l'analyseur CRF de Yu Zhang & Al.Expérimentalement, nous testons cette extension sur deux corpus (PTB et FTB) avec ou sans vecteurs de mots dynamiques: cette extension permet d'avoir un gain constant dans toutes les configurations.
Mots clés : Apprentissage profond, Attention, Analyse syntaxique en constituants