C’est devenu un réflexe pour de nombreux utilisateurs de ChatGPT dire « s’il te plaît » ou « merci » à l’IA, comme on le ferait avec un interlocuteur humain. Mais cette marque de courtoisie -qui, à première vue, semble anodine- a un prix. Et non des moindres.
À la suite d’une question posée sur X, Sam Altman, CEO d’OpenAI, a confirmé –non sans humour– que l'utilisation d'un langage poli dans les interactions avec ChatGPT entraînait des frais financiers et environnementaux tangibles. La démarche représenterait en effet des dizaines de millions de dollars par an en coûts d’électricité pour son entreprise.
Ce chiffre provient du traitement informatique de ces quelques mots supplémentaires. Lorsqu’un utilisateur envoie un simple remerciement à ChatGPT, celui-ci va déclencher une analyse et une réponse adaptées et générées par un modèle de langage, lui-même abrité dans un centre de données plutôt énergivore. Une réponse, même brève, nécessite donc de mobiliser une part de calculs.
Combien ça coûte ?
D’après une étude menée par l’Université de Californie, une réponse de 100 mots équivaut à 140 Wh d’énergie, soit assez pour faire briller 15 ampoules LED pendant une heure. Rapporté aux millions de requêtes quotidiennes, la facture grimpe rapidement.
Pour autant, Sam Altman ne regrette pas cet usage. Ce sont des dizaines de millions de dollars bien dépensés , a-t-il précisé. Car derrière l’ironie, il y a un constat : cette politesse témoigne d’une forme d’humanisation de l’IA, qui transforme les assistants vocaux ou textuels en véritables interlocuteurs.
Une enquête menée fin 2024 indiquait d’ailleurs que 67 % des utilisateurs américains se montrent polis avec leur chatbot, 55% par conviction personnelle et morale. Enfin 12% le ferait au cas où l’IA se souviendrait. Certains auraient même ajouté en ironisant, plaisantant sur le fait de gagner les faveurs de l'IA dans un futur hypothétique où elle dominerait... Si les raisons prêtent à sourire, elle illustre bien la relation ambivalente que beaucoup entretiennent avec ces outils de plus en plus intelligents.
Image Washington Post
Un impact environnemental réel
Mais derrière cette courtoisie se cache un problème bien concret : le coût énergétique des modèles de langage comme GPT-4. Avec des centres de données répartis dans le monde entier, OpenAI consomme une quantité d’électricité massive pour faire fonctionner ses modèles.
À l’échelle d’un utilisateur, la différence est minime. Mais multipliée par 800 millions d’utilisateurs hebdomadaires (toujours selon Sam Altman), cette somme d’interactions pèse lourd. En ajoutant simplement des mots de politesse à leurs prompts, les utilisateurs participent donc à alourdir une infrastructure déjà énergivore.
Faut-il pour autant bannir les merci ? Pas forcément. Des experts en design conversationnel, comme Kurtis Beavers chez Microsoft, estiment que le langage courtois améliore la qualité des réponses. L’IA reflète souvent le ton qu’on lui donne, explique-t-il. Un prompt clair et respectueux aurait donc plus de chances de produire une réponse cohérente et nuancée -et donc à l'image de son auteur (celui du prompt).