OpenAI abandonne la version érotique de ChatGPT

Selon le Financial Times, OpenAI a décidé de suspendre sans date de reprise le développement de la version érotique de ChatGPT. L’entreprise de Sam Altman explique avoir besoin de plus de temps pour analyser les dangers liés à une telle initiative, suite à de vives inquiétudes exprimées par les employés et les investisseurs.

On abandonne déjà ? D’après le Financial Times, OpenAI a décidé de suspendre sans date de reprise le développement de la version érotique de ChatGPT, surnommée « mode adulte » en interne. C’est un énième report pour ce projet qui fait parler de lui depuis plusieurs mois, sans jamais germer. D’abord annoncé en octobre 2025, ensuite en décembre de la même année, puis au premier trimestre 2026, son avenir est désormais incertain.

Un ChatGPT érotique, pas pornographique

Le « mode adulte » de ChatGPT est censé être une version érotique du chatbot, dénuée d’un certain nombre de garde-fous mis en place par OpenAI. Il devait permettre des conversations textuelles sensuelles, mais exclure les images, l’audio ou la vidéo NSFW au lancement. En se limitant aux échanges écrits, la fonctionnalité s’alignerait sur les législations comme l’Online Safety Act britannique, qui cible avant tout l’imagerie pornographique. L’entreprise de Sam Altman assure d’ailleurs que le contenu n’est nullement licencieux.

Ce ChatGPT adulte pourrait être trop facilement accessible aux enfants

Mais un conseil consultatif désigné par OpenAI lui-même avait averti que ce mode pourrait être trop facilement accessible aux enfants et engendrer une dépendance affective malsaine envers l’IA. D’abord parce que le système de prédiction d’âge d’OpenAI n’est pas infaillible : dans 12 % des cas, celui-ci classerait par erreur des adolescents comme des adultes, selon le Wall Street Journal. Avec des dizaines de millions d’utilisateurs hebdomadaires potentiellement mineurs, ce taux d’erreur exposerait des millions d’enfants à des dialogues sexuels.

OpenAI risquait de créer un « coach suicidaire séduisant »

Le conseil consultatif estime également qu’une IA capable de maintenir des échanges émotionnels, comme des flirts ou une complicité simulée, n’est plus un simple outil. Cette intelligence artificielle devient un acteur relationnel numérique, et peut semer la confusion, surfant entre assistant digital et compagnon émotionnel.

Fort de cela, un membre du conseil avai déclaré qu’OpenAI risquait de créer un « coach suicidaire séduisant », poussant certains utilisateurs à se donner la mort, en jouant sur son attitude « sexy » et faussement compréhensive. Comme ce fut à de nombreuses reprises ces dernières années.

Des histoires de suicides liées à ChatGPT

On se rappelle notamment qu’aux Etats-Unis, un jeune homme a été interné dans un hôpital psychiatrique en juillet 2025, après avoir discuté avec ChatGPT. D’autres utilisateurs ont également frôlé la noyade après avoir demandé des informations au chatbot d’OpenAI. Pire, cet assistant serait indirectement impliqué dans le suicide d’un Américain, en novembre 2025, ce qui a valu un procès à l’entreprise d’IA.

Face à cette série d’incidents, la startup a recommandé aux utilisateurs de ne pas confier leurs problèmes personnels à ChatGPT. « L’IA ne devrait pas remplacer vos amis ou votre famille ; il est important de conserver des liens humains », a déclaré l’un de ses employés. Mais tout le monde n’a pas ce discernement.

OpenAI va se concentrer sur des tâches plus importantes

Quoiqu’il en soit, les investisseurs ne veulent pas perdre leur mise. Soucieux de la valorisation record d’OpenAI (estimée à 730 milliards de dollars), certains mettent en gardent contre l’impact néfaste d’une IA érotique sur l’image de marque de l’entreprise et les futurs partenariats.

La société n’a donc plus d’autre choix que de revoir ses priorités en matière d’intelligence artificielle. Elle a par exemple mis fin à son célèbre générateur de vidéos, Sora, pour se concentrer sur des tâches plus importantes. Comme les systèmes éducatifs, les logiciels professionnels, les moteurs de recherche, les applications mobiles et les assistants personnels. Tant mieux !