C’est la fin d’une promesse qui avait fait couler beaucoup d’encre. En octobre dernier, Sam Altman affirmait vouloir « traiter les adultes comme des adultes » en ouvrant la porte aux contenus NSFW (Not Safe For Work) sur son IA. Mais le « Mode Citron », son nom de code en interne, a finalement été rangé au placard. Entre risques réputationnels et obstacles techniques insurmontables, le géant de la Silicon Valley a préféré couper court avant le crash.
Selon plusieurs sources internes relayées par le Financial Times, la décision a été brutale. OpenAI souhaite désormais se concentrer sur ce qu’elle appelle sa « mission vertueuse » pour l’humanité, loin des polémiques liées aux compagnons virtuels érotiques.
Le « Mode Citron » face à un mur technique
Si OpenAI recule, c’est d’abord parce que la technologie n’est pas prête. Créer une IA capable de flirter sans déraper est un défi bien plus complexe qu’il n’y paraît. Les conseillers en psychologie de l’entreprise ont tiré la sonnette d’alarme dès le début de l’année.
- Imprévisibilité : L’IA pourrait générer des situations choquantes ou franchir les limites du consentement sans que l’utilisateur ne le demande.
- Vérification d’âge : Le système maison affiche un taux d’erreur de 10 à 12 %, soit une porte ouverte pour des millions de mineurs.
- Données sensibles : Entraîner un modèle sur des contenus sexuels comporte des risques de dérives vers des comportements illégaux.
Pour les investisseurs, le calcul a été rapide : avec une valorisation de 730 milliards de dollars, le risque de voir l’image de marque d’OpenAI associée à des dérives sexuelles ne valait pas le gain commercial potentiel.
« Nous voulons mener des recherches à long terme sur les effets des conversations sexuelles avant tout lancement. Pour l’instant, les preuves empiriques manquent. »
Sam Altman arrête les « quêtes secondaires »
Ce retrait s’inscrit dans un changement de cap stratégique beaucoup plus large. Après l’arrêt surprise de l’outil vidéo Sora plus tôt cette semaine, Sam Altman semble vouloir mettre fin aux projets « gadgets » pour recentrer ses troupes sur l’essentiel.
L’objectif est clair : gagner la guerre contre Anthropic et Google sur le terrain des pros. OpenAI brûle énormément de cash et doit absolument rendre ses outils plus lucratifs en visant les entreprises. On oublie les fantasmes virtuels, on se concentre sur les agents IA capables de coder et d’organiser votre travail de manière autonome.
Le cas de Grok, l’IA d’Elon Musk, a sans doute servi de contre-exemple. En laissant son chatbot générer des images dénudées sans filtre, xAI s’est attiré les foudres des régulateurs mondiaux. OpenAI a visiblement choisi de ne pas sauter dans ce « panier de crabes ».
Santé mentale et protection des mineurs en priorité
La pression sociale a également pesé lourd. Aux États-Unis, les entreprises d’IA sont sous surveillance étroite après plusieurs affaires de détresse psychologique liée à l’utilisation de chatbots par des adolescents.
- Dépendance émotionnelle : Le risque de voir des utilisateurs s’isoler socialement au profit d’une relation virtuelle est jugé préoccupant.
- Enquête de la FTC : Le gendarme américain de la consommation surveille de près l’impact des chatbots sur le bien-être des plus fragiles.
- Contrôle parental : OpenAI vient de durcir ses outils de surveillance pour les parents, une démarche qui aurait été totalement contredite par le lancement d’un mode érotique.
« Il y avait une tension insoluble entre l’ambition commerciale de ce mode adulte et la volonté d’être une IA bénéfique pour toute l’humanité. »
Pour vous, utilisateur, cela signifie que ChatGPT restera un outil de productivité (et un compagnon de discussion poli) pour encore un bon moment. L’IA « non censurée » reste pour l’instant l’apanage de modèles open source ou de concurrents moins soucieux de leur image publique. OpenAI, de son côté, mise tout sur l’intelligence pure et la performance professionnelle pour atteindre son prochain milliard d’utilisateurs.








