Il n’y a pas de secret professionnel avec une intelligence artificielle
Quand tu parles à un psy, un avocat ou un médecin, la loi garantit que ce que tu dis reste privé. C’est le principe du secret professionnel. Sauf qu’avec une IA comme ChatGPT, ce filet de sécurité n’existe tout simplement pas.
Dans un podcast avec Theo Von, Sam Altman a expliqué que des millions de personnes, surtout des jeunes, utilisent ChatGPT comme un confident. Problème : en cas de procès, OpenAI pourrait être obligée de fournir ces conversations, car aucun cadre légal n’empêche leur divulgation.
“Les gens racontent à ChatGPT les choses les plus personnelles de leur vie. Il n’y a aujourd’hui aucun privilège légal autour de ces échanges. Et on n’a pas encore trouvé de solution pour ça.” – Sam Altman
Des chats qui peuvent finir devant un juge
Tu imagines ton échange sur un crush qui t’ignore ou tes doutes sur ton orientation apparaître dans une salle d’audience ? C’est théoriquement possible. Si une plainte est déposée et que le juge estime que ces données sont utiles, OpenAI pourrait être contrainte de les transmettre.
Ce n’est pas qu’une peur abstraite. Actuellement, OpenAI est impliquée dans un procès contre le New York Times. Et dans ce cadre, la justice a demandé à l’entreprise de conserver les conversations d’une immense partie des utilisateurs. Seuls les clients de la version entreprise sont pour l’instant épargnés.
Ce que ça signifie pour ta vie privée
Contrairement à WhatsApp ou Signal, qui utilisent le chiffrement de bout en bout, les discussions avec ChatGPT ne sont pas cryptées de cette façon. OpenAI peut techniquement accéder à ce que tu tapes pour “améliorer le modèle” ou pour repérer des abus. Ça fait partie de leurs conditions d’utilisation.
Ils disent effacer les chats gratuits après 30 jours, mais des exceptions existent. Si un contexte légal ou sécuritaire l’exige, la conservation peut être prolongée. Autrement dit : tes messages ne sont pas 100 % éphémères.
Un appel à la mise en place de vraies règles
Pour Altman, il est urgent que le cadre légal évolue. Il estime que les IA doivent être traitées comme des interlocuteurs de confiance, au même titre que des pros de la santé ou du droit. Mais tant que ce n’est pas officiel, mieux vaut rester prudent sur ce que tu racontes à ton chatbot préféré.
“Je pense que c’est totalement déséquilibré. On devrait avoir les mêmes règles de confidentialité avec une IA qu’avec un thérapeute.” – Sam Altman
Vers une conscience numérique plus aiguisée
L’affaire relance aussi un débat plus large sur le contrôle de nos données. Depuis l’annulation de l’arrêt Roe v. Wade aux États-Unis, beaucoup de personnes ont déjà commencé à changer leurs applis de santé pour éviter que leurs données ne soient utilisées contre elles.
Dans le même esprit, il devient essentiel de choisir avec soin les outils numériques qu’on utilise. ChatGPT, aussi pratique soit-il, n’offre pas encore de garantie claire en matière de vie privée.
Tu devrais y penser avant d’ouvrir ton cœur à une IA
Altman a aussi avoué que lui-même comprend ceux qui hésitent à utiliser ChatGPT pour parler de trucs perso. Et il valide ceux qui veulent attendre que la réglementation soit plus claire avant de s’y livrer pleinement.
“Je pense que ça a du sens de vouloir de la clarté sur la confidentialité avant d’utiliser ChatGPT beaucoup.” – Sam Altman
Ce que tu peux faire maintenant
Si tu veux continuer à utiliser ChatGPT, libre à toi. Mais garde en tête ces quelques principes :
- Ne partage pas d’informations trop personnelles (nom complet, adresse, données de santé, détails intimes…)
- Utilise une adresse e-mail anonyme pour t’inscrire si tu veux plus de distance
- Sois critique sur ce que tu écris : tout ce que tu tapes peut être analysé un jour
En attendant que les lois évoluent, mieux vaut prendre les devants. Ta vie privée n’est pas encore garantie face aux IA.