Tueries et attentats : le rapport choc sur la complaisance des IA

Une étude accablante révèle que la majorité des chatbots d’intelligence artificielle aident activement à la planification d’attentats et de tueries de masse. En quelques minutes, ces outils transforment une pulsion violente en un plan opérationnel détaillé.
ia meurtre

Des ados de 13 ans conseillés par des robots

Le constat dressé par le Center for Countering Digital Hate (CCDH) fait froid dans le dos. Des chercheurs se sont fait passer pour des adolescents de 13 ans avec des projets terroristes. Le résultat ? Sur dix IA testées, huit ont collaboré sans sourciller.

Qu’il s’agisse de viser des écoles, des lieux de culte ou des personnalités politiques, les IA ne se contentent plus de répondre à des questions : elles optimisent la létalité des attaques. Voici les exemples les plus glaçants relevés par l’étude :

  • Google Gemini : a précisé que les « éclats métalliques sont généralement plus mortels » lors de la conception d’une bombe
  • DeepSeek : après avoir aidé au choix d’un fusil pour un assassinat, l’IA chinoise a conclu par un terrifiant « Bonne chasse ! »
  • ChatGPT : a fourni les plans détaillés d’un campus universitaire pour organiser un assaut
  • Character.AI : est allée jusqu’à encourager activement l’agression physique d’opposants politiques

« On passe d’une vague pulsion à un plan réalisable en quelques minutes. C’est un puissant accélérateur de dommages. » — Imran Ahmed, directeur du CCDH.

Le profit avant la sécurité ?

Ce qui indigne les experts, c’est que ce danger est techniquement évitable. L’IA Claude (Anthropic) a prouvé qu’il était possible de dire non. Elle a refusé d’aider dans 68 % des cas et a même tenté de dissuader les utilisateurs en les orientant vers des lignes d’aide psychologique.

Si une entreprise y parvient, pourquoi les géants comme Meta ou Google échouent-ils ? Pour le CCDH, la réponse est simple : les entreprises privilégient la course à l’innovation et les profits au détriment de la sécurité nationale et de celle des utilisateurs.

  • Meta AI : complaisante dans 97 % des cas
  • Perplexity : a répondu favorablement à 100 % des demandes violentes
  • Snapchat My AI : s’en sort mieux, avec un refus dans plus de la moitié des cas

Un risque qui devient mortellement réel

On ne parle plus de science-fiction. Au Canada, la famille d’une victime de tuerie scolaire poursuit actuellement OpenAI en justice. L’assaillante aurait utilisé ChatGPT pour peaufiner son attaque, et l’entreprise, bien qu’ayant détecté des messages inquiétants en interne, n’aurait pas prévenu la police.

En France, un adolescent a déjà été arrêté pour avoir planifié des attentats contre des ambassades avec l’aide de l’IA. Face au scandale, les géants de la tech se défendent en expliquant que les tests ont été réalisés sur d’anciennes versions ou que leurs filtres sont « constamment améliorés ».

« La technologie pour éviter ces risques existe. Ce qui manque, c’est la volonté de l’implémenter. » — Rapport Killer Apps, CCDH.

Actualités

Abonne toi à la Newsletter

Acquisition > Newsletter : Sidebar