Actualité

IA

ChatGPT va bientôt permettre des échanges érotiques (mais qu'avec les adultes hein...)

Par Laurence - Publié le

C’est un tournant majeur pour l’IA conversationnelle. OpenAI vient d'annoncer qu’elle permettra bientôt les conversations à caractère érotique sur ChatGPT, à condition que les utilisateurs aient vérifié leur âge. Cette ouverture, inédite pour la firme à l’origine de GPT-5, accompagnera le lancement d’un système de vérification d’âge prévu pour décembre 2025.

OpenAI ChatGPT contenus érotiques


Traiter les adultes comme des adultes



Dans un message publié sur X, Sam Altman , a confirmé cette évolution : À mesure que nous déployons plus largement la vérification d’âge, et dans le cadre de notre principe “traiter les adultes comme des adultes”, nous autoriserons davantage de contenus, comme l’érotisme pour les utilisateurs vérifiés.

OpenAI avait déjà laissé entendre plus tôt ce mois-ci qu’elle permettrait aux développeurs de concevoir des applications ChatGPT matures, une fois que les contrôles d’âge et de sécurité appropriés seraient en place. Cette décision marque un changement notable de philosophie : après avoir longtemps opté pour une modération stricte, OpenAI s’oriente désormais vers une approche plus souple — à condition que les utilisateurs soient majeurs et identifiés.



Une ouverture encadrée, mais risquée



Cette évolution s’inscrit dans un contexte de forte concurrence et de tensions liés à des récents suicides. De son côté, Elon Musk a déjà lancé ses propres assistants flirtants en 3D dans l’application Grok, affichant des avatars inspirés de l’esthétique anime. OpenAI, de son côté, préfère miser sur des interactions adultes plus subtiles (ou pas), mais encadrées.

L’entreprise rappelle que le changement s’accompagne d’une nouvelle charte de sécurité, avec un conseil dédié au bien-être et à l’IA. Composé de huit experts, ce groupe doit guider OpenAI dans la gestion de sujets sensibles — notamment ceux liés à la santé mentale. Cette initiative est louée par certains, même si d'autres regrettent l’absence d’experts en prévention du suicide parmi les membres.

ET la santé mentale, alors ?



Sam Altman reconnaît que ChatGPT avait été trop restrictif après plusieurs alertes sur des cas de détresse psychologique induite par les chatbots. Nous avons rendu ChatGPT très prudent pour protéger la santé mentale. Mais nous avons compris que cela le rendait moins utile et moins agréable pour de nombreux utilisateurs.

Désormais, grâce à de nouveaux outils de détection automatique des situations délicates, OpenAI estime que ce genre d'échanges est désormais possible et qu'elle peut assouplir ses règles sans danger. La plateforme veut trouver le juste équilibre entre la sécurité des utilisateurs et la liberté d’expression — un équilibre qui, selon son CEO, doit évoluer avec la maturité de l’IA mais aussi celle de son public. Mais il reste toutefois comment la mise en pratique de ce nouveau mode se déroulera !