Adieu la courtoisie : cette étude prouve que l'IA fonctionne bien mieux quand on l'insulte, il y a des mots à éviter
Depuis leur mise sur le marché dans les années 2022/2023, les intelligences artificielles n’ont cessé d’évoluer et de voir leurs aptitudes s’améliorer. Textes toujours plus fournis, images toujours plus réalistes... les assistants IA ont su s’imposer comme des outils indispensables aux yeux de millions d’utilisateurs. Selon le site KPMG, 66 % des individus auraient recours à l’IA de manière régulière à travers le monde désormais.
Pourtant, les différentes intelligences artificielles disponibles, type ChatGPT, Gemini ou encore Mistral, sont régulièrement pointées du doigt pour leur manque de fiabilité. S’informer à l’aide de l’IA est fortement déconseillé, 45 % des réponses générées comportant "au moins un problème important", d’après une étude publiée en octobre 2025.
Afin de contourner le caractère trompeur de l’IA, il existerait une technique pour le moins surprenante : être vulgaire et malpoli.

C'est en tout cas la conclusion d'une étude intitulée "Faites attention à votre ton : enquête sur l’impact des prompts polis sur les résultats d’un LLM", menée par Om Dobariya et Akhil Kumar de l’université Penn State, en Pennsylvanie. Les résultats sont sans équivoque : un prompt "très grossier" permet de générer une réponse correcte dans 84,8% des cas, contre 80,8% en cas de prompt "très poli".
Si la différence semble moindre, les chercheurs recommandent de mettre fin aux "bonjour" et aux "s’il te plaît". Afin de mener leurs recherches, ils se sont évertués à poser diverses questions, chacune avec cinq formulations différentes allant de "très polie" (comme "Peux-tu, s’il te plaît, résoudre ce problème") à "très grossière", avec des insultes (comme "Pauvre créature, sais-tu seulement comment résoudre ce problème ?" et on vous en passe).
L’étude tend à montrer que les formulations polies risquent de distraire l’IA, laquelle aurait tendance à ne plus suivre à la lettre les prompts des utilisateurs. Le langage cru serait au contraire franc et direct, rendant les instructions beaucoup plus claires.
Les résultats de l’université de Penn State entrent en conflit total avec ceux de l’université japonaise de Waseda, qui avait révélé aux côtés de RIKEN en 2024 que les demandes polies permettaient de générer des réponses plus performantes chez l’IA. Une différence qui s’explique par les différents modèles testés : Dobariya et Kumar ayant étudié la version GPT-40 (contrairement à Waseda, qui s’était reposé sur une version plus ancienne, GPT-3.5).