Contexte technique
J'adore ces sujets car ils touchent directement à la pratique : les gens débattent des bonnes manières, et je pense immédiatement à l'automatisation par IA, à la latence et à la stabilité du pipeline. Le point de départ a été un fil de discussion sur X concernant une idée simple : il vaut mieux être poli avec l'IA. Ça semble sympathique, mais en ingénierie, une seule chose m'intéresse : est-ce que cela améliore réellement le résultat ou non ?
J'ai examiné les recherches récentes, et le tableau est loin d'être romantique ; il est plutôt inégal. Sur les anciens modèles comme GPT-3.5, une politesse modérée était souvent bénéfique : les réponses étaient plus soignées, plus claires, et parfois moins biaisées. Mais avec les systèmes plus récents, y compris ChatGPT-4o, des résultats ont montré qu'un ton direct, voire brusque, pouvait atteindre une meilleure précision dans les tests.
C'est là que j'ai marqué une pause. Cela signifie que le problème n'est pas la « politesse » en soi, mais le mode de réponse qu'un modèle spécifique déclenche. Une pile technologique interprète une formulation polie comme un signal pour une réponse plus approfondie, tandis qu'une autre, au contraire, devient excessivement verbeuse et perd en précision.
Un autre détail important : une politesse excessive gonfle presque toujours la réponse. Si je construis une intégration d'IA pour le support client, les ventes ou la recherche interne, je n'ai pas besoin d'un flot de « veuillez avoir l'amabilité de ». J'ai besoin d'un format prévisible, de moins de jetons inutiles et d'un contrôle de style adéquat.
Ma conclusion est donc simple : la politesse n'est pas une astuce universelle. C'est un paramètre de cadrage du prompt qui doit être testé, tout comme la température, le prompt système et le schéma de sortie. Sans mesure, ce n'est que du folklore.
Ce que cela change pour l'entreprise et l'automatisation
Pour une simple conversation, la différence peut être presque imperceptible. Mais lorsque je mets en place une automatisation par IA en production, des détails comme le ton du prompt se transforment en coût, en vitesse et en taux d'erreur.
Les équipes gagnantes sont celles qui effectuent des tests A/B sur leurs prompts, pas celles qui se fient aux conseils des réseaux sociaux. Les perdantes sont celles qui intègrent « soyez aussi poli et amical que possible » dans leur flux de travail et s'étonnent ensuite des réponses gonflées, des jetons supplémentaires et d'une baisse de précision.
Chez Nahornyi AI Lab, nous résolvons ce genre de problèmes au niveau du système, et non sur la base de mèmes sur la façon de parler aux robots. Si le développement de votre solution d'IA est freiné par la qualité des réponses ou une automatisation instable, nous pouvons rapidement identifier où le ton du prompt pose problème et construire un système plus fiable avec Vadym Nahornyi et Nahornyi AI Lab.