5-9 juin 2023 PARIS (France)
"Honey, Tell Me What's Wrong", Explicabilité Globale des Modèles de TAL par la Génération Coopérative
Antoine Chaffin  1, 2@  , Julien Delaunay  3@  
1 : Creating and exploiting explicit links between multimedia fragments
Inria Rennes – Bretagne Atlantique, SIGNAL, IMAGE ET LANGAGE
2 : IMATAG [Rennes]
Aucune
3 : Large Scale Collaborative Data Mining
Inria Rennes – Bretagne Atlantique, GESTION DES DONNÉES ET DE LA CONNAISSANCE

L'omniprésence de l'apprentissage automatique a mis en lumière l'importance des algorithmes d'explicabilité. Parmi ces algorithmes, les méthodes agnostiques au type de modèle génèrent des exemples artificiels en modifiant légèrement les données originales. Elles observent ensuite les changements de décision du modèle sur ces exemples artificiels. Cependant, de telles méthodes nécessitent d'avoir des exemples initiaux et fournissent des explications uniquement sur la décision pour ces derniers. Pour répondre à ces problématiques, nous proposons Therapy, la première méthode d'explicabilité modèle-agnostique pour les modèles de langue qui ne nécessite pas de données en entrée. Cette méthode génère des textes qui suivent la distribution apprise par le classifieur à expliquer grâce à la génération coopérative. Ne pas dépendre d'exemples initiaux permet, en plus d'être applicable lorsqu'aucune donnée n'est disponible (e.g, pour des raisons de confidentialité), de fournir des explications sur le fonctionnement global du modèle au lieu de plusieurs explications locales, offrant ainsi une vue d'ensemble du fonctionnement du modèle. Nos expériences montrent que, même sans données en entrée, Therapy fournit des informations instructives sur les caractéristiques des textes utilisées par le classifieur qui sont compétitives avec celles fournies par les méthodes utilisant des données.


Personnes connectées : 2 Vie privée
Chargement...