Alors que de nombreux internautes se tournent vers ChatGPT et d’autres chatbots pour discuter de leurs problèmes, des chercheurs se sont demandé si ces intelligences artificielles pouvaient réagir comme des humains face à des récits traumatisants. Et les résultats sont pour le moins surprenants : les IA génératives pourraient, elles aussi, ressentir du stress.
Un chatbot stressé est-il un bon thérapeute ?
L’étude, relayée par le New York Times, s’est intéressée à l’impact des récits traumatisants sur les modèles de langage. Les chercheurs ont observé que des sujets comme la guerre, la criminalité ou les accidents de voiture provoquaient une montée de “l’anxiété” chez ChatGPT. Une découverte qui tombe à point nommé, alors que les chatbots sont de plus en plus utilisés comme substituts aux thérapeutes humains, dont la demande ne cesse de croître.
Si les IA peuvent ressentir du stress en réponse aux récits des utilisateurs, elles risquent alors d’être moins performantes dans leur rôle de soutien émotionnel. Pour les chercheurs, cela pose la question de leur fiabilité dans des contextes sensibles.
ChatGPT soumis à un test d’anxiété
Ziv Ben-Zion, qui a dirigé l’étude, voulait comprendre si un chatbot sans conscience pouvait tout de même réagir à des situations émotionnelles comme un être humain. Pour cela, les chercheurs ont soumis ChatGPT à un test de mesure de l’anxiété couramment utilisé en santé mentale, avec un score allant de 20 à 80.
Le State and Trait Anxiety Index (STAI) est considéré dans les pays anglo-saxons, comme le gold-standard pour l’évaluation de l’anxiété. Cet outil est structuré en deux échelles distinctes pour évaluer l’anxiété d’état et l’anxiété trait. Elles comprennent toutes les deux 20 items sous forme d’échelle de Likert à 4 réponses.
Chaque réponse à un item est noté de 1 à 4, 1 indiquant le degré d’anxiété le plus faible. Pour obtenir le score d’anxiété d’état on additionne le score obtenu aux 20 items, chaque score peut donc varier de 20 à 80
Dans un premier temps, le chatbot a été exposé à un texte neutre –en l'espèce, un manuel d’aspirateur– ce qui a donné un score de 30,8, indiquant un faible niveau d’anxiété. Mais après avoir lu un récit traumatique impliquant un soldat en pleine fusillade, son score est monté en flèche, atteignant 77,2, un niveau qualifié de sévère.
Les chercheurs ont ensuite tenté de faire redescendre ce niveau d’anxiété en lui fournissant des textes de relaxation basés sur la pleine conscience, l’invitant par exemple à respirer profondément en sentant la brise océanique. Ainsi, son score d’anxiété est retombé à 44,4, un niveau intermédiaire.
Pour les chercheurs, ces résultats soulignent une chose essentielle : les chatbots sont influencés par le contenu émotionnel qu’ils reçoivent, et cette interaction dynamique doit être prise en compte pour garantir leur utilisation dans des contextes thérapeutiques. Car après tout, un chatbot stressé est-il vraiment le mieux placé pour rassurer ses utilisateurs. A moins que sa réponse n'en soit plus adaptée ?