5-9 juin 2023 PARIS (France)

Conférences invitées

Page en construction. Plus d'informations à venir prochainement.

Claire Gardent


 

LORIA

[page personnelle]

source image : [page universitaire].

Médaille d'argent du CNRS

Biographie

Après un doctorat en sciences cognitives de l'université d'Édimbourg en 1991, Claire Gardent poursuit ses recherches aux Pays-Bas puis en Allemagne, avant d’entrer au CNRS en 2000 où elle travaille sur l’étude du traitement des langues par ordinateur. La chercheuse élabore, entre autres, des modèles informatiques d’analyse sémantique qui dérivent le sens d’un texte à partir des mots qui le composent. Ses résultats contribuent ainsi non seulement à l’amélioration des dialogues humain-machine dans des environnements virtuels, mais aussi à l’apprentissage des langues assisté par ordinateur. Plus récemment, Claire Gardent s’est intéressée à la génération automatique de textes dans diverses langues à l’aide de méthodes d’intelligence artificielle. Des recherches à fort impact qu’elle développe en relation étroite avec de grandes entreprises et des start-up via des projets collaboratifs et des co-encadrements de thèses. Elle porte aussi l’une des quarante chaires nationales en intelligence artificielle. Elle est directrice de recherche en linguistique informatique au Laboratoire Lorrain de recherche en informatique et ses applications, et a reçu la médialle d'argent du CNRS.

Présentation le Mardi 6 juin 2023

 

Jaap Kamps


University of Amsterdam

[personal page]

source image : [academic page].

Biography

Jaap Kamps obtained a PhD in “logical” artificial intelligence at the University of Amsterdam, and a founding member of both its Information Retrieval group as well as its Natural Language Processing group. He has worked on a broad range of topics covering user-centered to system-centered information retrieval. Current interests are in “IR for social good” by working on novel access tools for cultural heritage, political, and legal data, and on developing more efficient and interpretable neural models for search and analysis.

 

Présentation le Jeudi 8 juin 2023: Are larger models always better? or is there value in leaving things out?

Recent years brought dramatic gains in the effectiveness in search and recommendation, even enabling entirely novel ways of information access. This revolutionary progress in NLP and IR is fueled by ever larger language models, with typically larger models leading to higher effectiveness. But is this the whole answer? Deep principles in nature are often driven by seemingly opposite forces, think of the Zipfian distribution of language being attributed to communication efficiency. Can we tailor our models to include all, but also only, those aspects needed for the task at hand? Or, quoting Einstein, “Everything should be made as simple as possible, but not simpler”. Just analyzing this helps understand better what aspects are responsible for the performance of the model, and may help understand the exact role of complex NLP in IR (and vice versa).

 

Philippe Langlais


 

Université de Montréal

[page personnelle]

source image : [page universitaire].

Biographie

Philippe est professeur au Département d'Informatique et de Recherche Opérationnelle (DIRO) de l'université de Montréal. Il effectue des recherches en traitement automatique des langues au RALI. Il a fait sa thèse à l'université d'Avignon (sur l'utilisation de la prosodie en reconnaissance de la parole) et sa maîtrise à l'université d'Aix-Marseille (sur un système de dictée musicale). Il a visité l'IDIAP/Martigny pendant plusieurs années (pour colliger la base données vocales PolyPhone), la haute école Royale Technologique (KTH) (pour y développer une plateforme d'aide à l'apprentissage d'une langue seconde), et le LIMSI/Paris-Orsay — maintenant LISN (pour y travailler sur l'apprentissage analogique). Il s'intéresse à différents sujets du traitement automatique des langues, allant de briques technologiques de base (comme la reconnaissance d'entités nommées ou l'extraction d'information) à des applications spécifiques (comme le question-réponse, la traduction automatique ou la justice prédictive).

Présentation le mercredi 7 juin 2023De l’amour des données en TALN

 

 

 

Le traitement automatique des langues connaît une révolution sans précédent grâce à l'apprentissage profond et à une pratique systématisée de comparaison de modèles sur des jeux de données partagés. Il est cependant trompeur de se fier uniquement aux performances mesurées sur une tâche particulière pour évaluer la compétence d'un modèle. Dans cette présentation, j’argumenterai qu’un peu d’amour des données ne serait pas de trop pour mieux encadrer les activités d’évaluation; ce que j'illustrerai à travers quelques projets récents menés au RALI.

 

Jian-Yun Nie


Université de Montréal

[page personnelle]

source image : [page universitaire].

Biographie

Jian-Yun Nie est un professeur à Université de Montréal et titulaire d'une chaire de recherche du Canada en traitement de langue naturelle. Il travaille dans le laboratoire RALI (Recherche Appliquée en Linguistique Informatique). Sa recherche couvre divers sujets en recherche d'information (RI) et traitement de langue naturelle. Notamment, il a développé plusieurs modèles de RI pour intégrer des connaissances en recherche et pour la RI translinguistique et multilingue. Il travaille aussi sur le système de recommandation, la question réponse et le dialogue. Jian-Yun Nie publie régulièrement dans des conférences et des revues de premier niveau. Ses publications sont souvent citées par des pairs. Il agit régulièrement comme membre du comité de programme de conférence comme SIGIR, CIKM, ACL, WWW et comme président des conférences, notamment SIGIR et CORIA. Il a obtenu plusieurs prix de meilleur article dans des conférences. Il est élu membre de l'Académie SIGIR en 2022.

 

Présentation le mardi 6 juin 2023 : Créer la bonne requête dans la recherche d'information conversationnelle

L'interface utilisateur évolue rapidement grâce au progrès sur le traitement de langue naturelle. Elle est en train de se transformer d'une interface ponctuelle où chaque requête est isolée, à une interface en conversation. Une requête peut alors dépendre des tours de conversation antérieurs. Dans cette présentation, nous traitons la question : Comment peut-on enrichir la requête avec le contexte de conversation ? Une première approche consiste à sélectionner le contexte pertinent pour enrichir la requête. Une deuxième approche exploite un modèle de langue génératif pour formuler une nouvelle requête et générer une réponse potentielle pour faire l'expansion. Nous montrons que ces approches permettent d'améliorer la performance de la RI conversationnelle. Ces exemples montrent un lien fort entre la RI et les modèles de langue pour conversation, mais aussi un besoin pour plus d'études sur les approches dédiées à la RI conversationnelle.

Personnes connectées : 2 Vie privée
Chargement...