5-9 juin 2023 PARIS (France)
Impact de l'apprentissage multi-labels actif appliqué aux transformers
Maxime Arens  1, *@  , Charles Teissèdre  2@  , Lucile Callebert  2@  , Jose G Moreno  1@  , Mohand Boughanem  1@  
1 : Institut de recherche en informatique de Toulouse
Université Toulouse III - Paul Sabatier
2 : Synapse-Dévelopemment
Synapse-Dévelopemment
* : Auteur correspondant

L'Apprentissage Actif (AA) est largement utilisé en apprentissage automatique afin de réduire l'effort d'annotation. Bien que la plupart des travaux d'AA soient antérieurs aux transformers, le succès récent de ces architectures a conduit la communauté à revisiter l'AA dans le contexte des modèles de langues pré-entraînés.
De plus, le mécanisme de fine-tuning, où seules quelques données annotées sont utilisées pour entraîner le modèle sur une nouvelle tâche, est parfaitement en accord avec l'objectif de l'AA.
Nous proposons d'étudier l'impact de l'AA dans le contexte des transformers pour la tâche de classification multi-labels. Or la plupart des stratégies AA, lorsqu'elles sont appliquées à ces modèles, conduisent à des temps de calcul excessifs, ce qui empêche leur utilisation au cours d'une interaction homme-machine en temps réel. Afin de pallier ce problème, nous utilisons des stratégies d'AA basées sur l'incertitude. L'article compare six stratégies d'AA basées sur l'incertitude dans le contexte des transformers et montre que si deux stratégies améliorent invariablement les performances, les autres ne surpassent pas l'échantillonnage aléatoire. L'étude montre également que les stratégies performantes ont tendance à sélectionner des ensembles d'instances plus diversifiées pour l'annotation.


Personnes connectées : 4 Vie privée
Chargement...