BHAN Milan
Équipe : LFI
Date d'arrivée : 12/04/2022
- Sorbonne Université - LIP6
Boîte courrier 169
Couloir 26-00, Étage 5, Bureau 504
4 place Jussieu
75252 PARIS CEDEX 05
Tel: 01 44 27 88 87, Milan.Bhan (at) nulllip6.fr
https://lip6.fr/Milan.Bhan
Direction de recherche : Marie-Jeanne LESOT
Co-encadrement : VITTAUT Jean-Noël
Génération de textes contre-factuels
L’objectif de cette thèse est d’évaluer la possibilité de générer des contrefactuels dans le cadre du NLP sous diverses formes de contraintes comme celles de plausibilité, de justesse grammaticale ou d’orientation vers un but. Les générateurs de contrefactuels seront évaluées comme source d’interprétabilité et comme m´méthode de renforcement de la robustesse des modèles de langage manipulés. Ainsi, ce travail permettra de répondre aux questions suivantes : o Dans quelle mesure les méthodes post-hoc agnostiques existantes sont-elles adaptées aux modèles de deep learning appliqués au NLP ? o Comment interpréter les modèles de deep learning appliqués au NLP grâce aux paramètres propres à leur structure ? Peut-on en tirer une méthode de génération de contrefactuels ? o De quelle manière peut-on intégrer les contraintes de plausibilité, d’efficacité et d’orientation vers un but en NLP `a la génération de contrefactuels ? Pour ce faire, les approches proposées seront testées sur divers jeux de données comme l’IMDB Database. Les modèles de langage à l’état de l’art de type BERT (Bidirectionnal Encoder Representation from Transformers) et autres dérivés d’architecture de Transformers seront mobilisés pour traiter ces questions. En particulier, les coefficients d’attention inhérents aux architectures de type Transformers serony l’objet d’investigations poussées. Enfin, l’utilisation d’algorithmes d’apprentissage par renforcement (reinforcement learning) sera envisagée lors du processus de création de texte n´nécessaire à la génération d’exemples contrefactuels. Des générateurs de textes autres que antonymiques seront testées afin d’améliorer la qualité des contrefactuels générés. Les méthodes de contrefactuels seront systématiquement testées et utilisées afin d’effectuer de la data augmentation et de la détection d’éventuels biais afin de rendre les modèles plus robustes.
Publications 2023
-
2023
- M. Bhan, N. Achache, V. Legrand, A. Blangero, N. Chesneau : “Evaluating self-attention interpretability through human-grounded experimental protocol”, Explainable Artificial Intelligence, vol. 1903, Communications in Computer and Information Science, Lisbonne, Portugal, pp. 26-46, (Springer Nature Switzerland), (ISBN: 978-3-031-44070-0) (2023)
- M. Bhan, J.‑N. Vittaut, N. Chesneau, M.‑J. Lesot : “TIGTEC : Token Importance Guided TExt Counterfactuals”, Machine Learning and Knowledge Discovery in Databases: Research Track. ECML PKDD 2023. Lecture Notes in Computer Science, vol. 14171 (3), Lecture Notes in Computer Science, Turin, Italy, pp. 496–512, (Springer), (ISBN: 978-3-031-43417-4) (2023)
- M. Bhan, J.‑N. Vittaut, N. Chesneau, M.‑J. Lesot : “Enhancing textual counterfactual explanation intelligibility through Counterfactual Feature Importance”, Proceedings of the 3rd Workshop on Trustworthy Natural Language Processing (TrustNLP 2023), Toronto, Canada, pp. 221-231, (Association for Computational Linguistics) (2023)