Une expérience discrète qui n’aura pas duré
Lancée en juin 2025, cette option permettait aux utilisateurs de partager une conversation via un lien public, avec la possibilité d’activer l’indexation sur les moteurs de recherche. L’idée, selon OpenAI, était de permettre à tout le monde de découvrir des échanges utiles ou inspirants via Google ou Bing.
Mais très vite, des voix se sont élevées. Certains utilisateurs ont réalisé que leurs discussions, parfois très personnelles, apparaissaient dans les résultats de recherche. La confusion autour de l’option d’indexation — pourtant volontaire — a provoqué une série de mauvaises surprises.
Des discussions privées visibles sur Google
Sur Reddit, X ou encore Mastodon, plusieurs utilisateurs ont fait part de leur surprise en découvrant leurs propres prompts listés sur des pages de résultats Google. Parmi les cas signalés :
- des CV générés par l’IA
- des demandes intimes adressées à un sexologue
- des recherches de reconversion professionnelle
- des conversations à caractère sarcastique ou trollesques
« J’ai tapé une simple question sur mes doutes au boulot et j’ai retrouvé ça dans Google deux jours plus tard. C’est flippant », commente un internaute anonyme sur Reddit.
OpenAI fait marche arrière
Dans un post publié sur X, Dane Stuckey, responsable de la sécurité chez OpenAI, a confirmé la suppression de l’option :
« Nous venons de désactiver la fonctionnalité qui permettait à certaines conversations d’être visibles sur les moteurs de recherche. Cela ne correspondait pas à nos standards de confidentialité. »
Cette fonctionnalité nécessitait une double action : partager manuellement une conversation, puis cocher une case pour autoriser son indexation. Malgré cette procédure, plusieurs utilisateurs auraient mal compris son fonctionnement, ou simplement oublié l’avoir activée.
Une décision motivée par la sécurité
OpenAI a tranché rapidement pour une raison simple : protéger les utilisateurs. Dans un communiqué, l’entreprise explique que les risques d’exposition accidentelle étaient trop élevés, même avec une activation volontaire. La suppression est désormais active pour tous les comptes.
Les contenus déjà indexés devraient progressivement disparaître des résultats. Selon OpenAI :
« Nous travaillons activement à supprimer les pages concernées des moteurs de recherche. Ce processus est déjà en cours et sera finalisé d’ici peu. »
Des exemples qui ont fait polémique
Certains échanges, devenus publics par erreur, ont choqué. Un exemple relayé par TechCrunch fait le tour des réseaux : une conversation absurde dans laquelle un utilisateur demande s’il peut chauffer une fourchette au micro-ondes. À la fin du dialogue, ChatGPT génère un pseudo-guide intitulé :
« Comment utiliser un micro-ondes sans invoquer Satan : guide du débutant »
Ce type de contenu, à la fois absurde et viral, n’aurait jamais dû se retrouver en ligne. D’autres cas, plus sensibles, ont révélé des histoires personnelles, des avis sur des employeurs, voire des données RH confidentielles écrites par erreur via des comptes professionnels.
Des risques bien réels dans les entreprises
Des témoignages montrent que certaines sociétés utilisent encore des comptes ChatGPT partagés entre collègues. Sans verrouillage clair de l’historique, il est facile pour un salarié de tomber sur des requêtes très privées écrites par un autre utilisateur.
Exemple relayé par BFM : une collaboratrice tombe sur une demande concernant des problèmes intimes envoyée à une sexologue, dans un compte collectif de son entreprise. Autre situation : un manager aurait utilisé ChatGPT pour établir une liste de salariés à licencier, en fonction de critères discutables. Ces usages posent de graves questions sur la protection des données au travail.
Ce qui change concrètement
Désormais, les options de partage de ChatGPT restent actives : tu peux toujours copier un lien pour envoyer une discussion. Mais aucune d’entre elles ne pourra plus être référencée dans les résultats de Google ou d’un autre moteur. Le bouton d’autorisation d’indexation a été entièrement retiré.
Pour OpenAI, l’objectif est clair : éviter les fuites d’informations sensibles, même involontaires. Un rappel utile pour celles et ceux qui utilisent l’IA dans leur quotidien, perso ou pro.