Doctorant à Sorbonne Université Équipe : LFI
Date d'arrivée : 12/04/2022 Sorbonne Université - LIP6 Boîte courrier 169 Couloir 26-00, Étage 5, Bureau 504 4 place Jussieu 75252 PARIS CEDEX 05 01 44 27 88 87
Milan.Bhan (at) nulllip6.fr https://lip6.fr/Milan.Bhan
Direction de recherche : Marie-Jeanne LESOT
Co-encadrement : VITTAUT Jean-Noël
Génération de textes contre-factuels
L’objectif de cette thèse est d’évaluer la possibilité de générer des contrefactuels dans le cadre du NLP sous diverses formes de contraintes comme celles de plausibilité, de justesse grammaticale ou d’orientation vers un but. Les générateurs de contrefactuels seront évaluées comme source d’interprétabilité et comme m´méthode de renforcement de la robustesse des modèles de langage manipulés. Ainsi, ce travail permettra de répondre aux questions suivantes :
o Dans quelle mesure les méthodes post-hoc agnostiques existantes sont-elles adaptées aux
modèles de deep learning appliqués au NLP ?
o Comment interpréter les modèles de deep learning appliqués au NLP grâce aux paramètres
propres à leur structure ? Peut-on en tirer une méthode de génération de contrefactuels ?
o De quelle manière peut-on intégrer les contraintes de plausibilité, d’efficacité et d’orientation
vers un but en NLP `a la génération de contrefactuels ?
Pour ce faire, les approches proposées seront testées sur divers jeux de données comme l’IMDB Database. Les modèles de langage à l’état de l’art de type BERT (Bidirectionnal Encoder Representation from Transformers) et autres dérivés d’architecture de Transformers seront mobilisés pour traiter ces questions. En particulier, les coefficients d’attention inhérents aux architectures de type Transformers serony l’objet d’investigations poussées. Enfin, l’utilisation d’algorithmes d’apprentissage par renforcement (reinforcement learning) sera envisagée lors du processus de création de texte n´nécessaire à la génération d’exemples contrefactuels. Des générateurs de textes autres que antonymiques seront testées afin d’améliorer la qualité des contrefactuels générés. Les méthodes de contrefactuels seront systématiquement testées et utilisées afin d’effectuer de la data augmentation et de la détection d’éventuels biais afin de rendre les modèles plus robustes.
Publications 2023-2025
2025
M. Bhan, Y. Choho, J.‑N. Vittaut, N. Chesneau, P. Moreau, M.‑J. Lesot : “Towards Achieving Concept Completeness for Textual Concept Bottleneck Models”, Findings of the Association for Computational Linguistics: EMNLP 2025, Suzhou, China, pp. 2007-2024, (Association for Computational Linguistics), (ISBN: 979-8-89176-335-7) (2025)
M. Bhan, J.‑N. Vittaut, N. Achache, V. Legrand, A. Blangero, N. Chesneau, J. Murris, M.‑J. Lesot : “Mitigating Text Toxicity with Counterfactual Generation”, Explainable Artificial Intelligence Third World Conference, xAI 2025, Istanbul, Turkey, July 9–11, 2025, Proceedings, Part IV, vol. 2579, Communications in Computer and Information Science, Istanbul, Türkiye, pp. 135-157, (Springer Nature Switzerland) (2025)
M. Bhan, J.‑N. Vittaut, N. Chesneau, M.‑J. Lesot : “Self-AMPLIFY: Improving Small Language Models with Self Post Hoc Explanations”, Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing, Miami, FL, United States, pp. 10974-10991, (Association for Computational Linguistics) (2024)