Vous faites peut-être preuve d’une grande courtoisie quand vous vous adressez à l’IA (juste « au cas où… »), mais une étude suggère que parler sur un ton sec, voire rabaissant, à ChatGPT permettrait d’extraire des réponses plus justes.
Être malpoli donnerait de meilleurs résultats
L’expérimentation a porté sur 250 requêtes (prompts) soumises à GPT-4o, un modèle d’OpenAI. Les résultats montrent que le mode qualifié de « très impoli » a atteint un taux de réussite de 84,8 % sur un QCM technique, soit quatre points de plus que les requêtes formulées avec une politesse excessive. En demandant sèchement à l’IA de « se débrouiller » pour trouver la solution plutôt que de solliciter son aide avec tact, les utilisateurs obtiendraient un travail plus rigoureux.
Cette sensibilité au ton utilisé confirme que les LLM ne se contentent pas d’analyser la structure syntaxique, mais « lisent » la façon dont le message est exprimé. Mais cette efficacité semble avoir un

