5-9 juin 2023 PARIS (France)
Enrichissement des modèles de langue pré-entraînés par la distillation mutuelle des connaissances
Raphaël Sourty  1@  , Jose G Moreno  1, 2@  , François-Paul Servant  3@  , Lynda Tamine  1@  
1 : Recherche d'Information et Synthèse d'Information
Institut de recherche en informatique de toulouse
2 : Institut de Recherche en Informatique de Toulouse  (IRIT)
CNRS : UMR5505
3 : RENAULT
Renault Group

Les bases de connaissances sont des ressources essentielles dans un large éventail d'applications à forte intensité de connaissances. Cependant, leur incomplétude limite intrinsèquement leur utilisation et souligne l'importance de les compléter. À cette fin, la littérature a récemment adopté un point de vue de monde ouvert en associant la capacité des bases de connaissances à représenter des connaissances factuelles aux capacités des modèles de langage pré-entraînés (PLM) à capturer des connaissances linguistiques de haut niveau et contextuelles à partir de corpus de textes. Dans ce travail, nous proposons un cadre de distillation pour la complétion des bases de connaissances où les PLMs exploitent les étiquettes souples sous la forme de prédictions d'entités et de relations fournies par un modèle de plongements de bases de connaissances, tout en conservant leur pouvoir de prédiction d'entités sur de grandes collections des textes. Pour mieux s'adapter à la tâche de complétion des connaissances, nous étendons la modélisation traditionnelle du langage masqué des PLM à la prédiction d'entités et d'entités liées dans le contexte. Des expériences utilisant les tâches à forte intensité de connaissances dans le cadre du benchmark d'évaluation KILT montrent le potentiel de notre approche.


Personnes connectées : 3 Vie privée
Chargement...