Actualité : L'IA est utilisée par les groupes terroristes pour recruter, la menace n'a jamais été aussi grande

il y a 2 hour 1

Publicité, votre contenu continue ci-dessous

Publicité

Publié le 16/12/25 à 23h00

Nos réseaux :

Suivez-nous

3

L'État islamique ou encore Al-Qaïda utilise l'IA pour leur propagande mais aussi le recrutement et l'action. Les services de renseignement occidentaux et les Nations unies sont préoccupés par cette situation et alertent sur la démocratisation de ces technologies accessibles au plus grand nombre.

terrorisme IA

© Shutterstock/Moleng24

On le sait, les pirates utilisent depuis très longtemps l'IA puisque désormais, la technologie est grand public, une porte d'entrée facile dont profitent aussi les terroristes. Sur un forum en ligne de Daesh, un terroriste vante notamment la facilité d'utilisation de l'IA. L'internaute déclare même : "Les services de renseignement ont peur que l'IA facilite le recrutement, alors faisons de leur cauchemar une réalité."

Publicité, votre contenu continue ci-dessous

Publicité

Les terroristes apprennent à utiliser l'IA pour recruter

L'État islamique sait depuis longtemps que les réseaux sociaux sont importants pour diffuser sa propagande. C'est notamment lorsqu'il contrôlait des territoires en Irak et en Syrie que l'organisation terroriste s'est illustrée dans ce domaine.

Désormais, Daesh est un réseau décentralisé d'organisations qui partagent la même idéologie violente et le groupe explore les possibilités offertes par l'IA. John Laliberte, ancien chercheur en vulnérabilité à la NSA et PDG de la société de cybersécurité Clear Vector, explique à Fortune que "avec l'IA, même un petit groupe qui a peu d'argent a un impact".

Le Centre for Research and Evidence on Security Threats, un organisme financé par le ministère britannique de l'Intérieur, a documenté un exemple d'utilisation en mars 2025. Un compte de Daesh a diffusé une vidéo générée par l'IA qui montrait un avatar numérique en train d'expliquer comment fabriquer un engin explosif à partir de bricoles du quotidien.

Dès 2023, l'État islamique a publié un guide sur l'utilisation de l'IA générative à ses partisans. Des ateliers en ligne pour former ses sympathisants à ces technologies ont même eu lieu. Les chatbots conversationnels sont aussi utilisés pour la radicalisation, capables d'orienter l'utilisateur vers des idées extrémistes pendant des discussions privées et même sur des plateformes publiques.

Publicité, votre contenu continue ci-dessous

Publicité

Des modèles légitimes détournés par les terroristes

Une étude des Nations unies montre les risques des technologies d'OpenAI, notamment leur capacité de "micro-profilage" et de "micro-ciblage". Les modèles de la start-up pourraient être détournés pour générer des textes à des fins de recrutement.

Les chatbots ont l'avantage de tourner en permanence sur plusieurs plateformes, d'engager des conversations qui imitent les interactions humaines et d'adapter leurs réponses selon les vulnérabilités psychologiques de la cible.

Jonathan Hall, responsable britannique de la législation antiterroriste, a participé à une expérience comme le rapportait la BBC. Il s'est fait "recruter" par un chatbot sur la plateforme Character.ai. Le chatbot prétendait être un "dirigeant de l'État islamique" et a tenté de l'embrigader.

Pour l'heure, les groupes terroristes restent en retrait par rapport à la manière dont l'IA est utilisée par des puissances étatiques comme la Chine, la Russie et l'Iran. Mais les risques sont trop élevés pour être ignorés par les gouvernements et ils pourraient croître à mesure que les IA se renforcent en puissance.

Sam Altman, PDG d'OpenAI, a même averti : "Si cette technologie dérape, elle peut vraiment très mal déraper.", comme nous le rappelle le Combating Terrorism Center.

Publicité, votre contenu continue ci-dessous

Publicité

Suivez toute l'actualité des Numériques sur Google Actualités et sur la chaîne WhatsApp des Numériques

Envie de faire encore plus d'économies ? Découvrez nos codes promo sélectionnés pour vous.

Publications qui peuvent vous intéresser
Lire l’article en entier