C’est une intuition partagée par beaucoup… et étayée par des données. Une étude menée par deux chercheuses de l’université de Leuven, et présentée lors de la conférence « LREC-COLING » 2024, démontre comment les modèles de langage les plus utilisés, comme GPT-4 ou Zephyr, restent profondément biaisés en faveur de l’anglais – y compris lorsqu’ils écrivent en français ou en néerlandais.
À travers une analyse fine de 550 articles générés par IA, cette recherche met en lumière des maladresses linguistiques directement liées à l’influence de l’anglais, et montre comment des facteurs comme le prompting, la température du modèle ou le fine-tuning peuvent faire toute la différence.
Donc, si vous avez déjà trouvé un ton un peu style « Google Translate » aux réponses de vos IA en français, cette étude devrait vous intéresser 🙂
Laisser un commentaire