L'IA accélère et automatise les attaques informatiques. État des lieux des menaces actuelles.

L’IA, accélérateur de cyber-menaces en 2026 : agents IA détournés, attaques autonomes et robots hackés

L'IA accélère et automatise les attaques informatiques. État des lieux des menaces actuelles.

L’intelligence artificielle transforme la menace cyber en accélérant et en automatisant les attaques : phishing 4,5 fois plus efficace, malwares autonomes et outils accessibles aux hackers dès 100 $/mois. On assiste également à de nouvelles surfaces d’attaques qui émergent avec les agents IA, les navigateurs boostés et les robots humanoïdes, qui constituent autant de nouveaux vecteurs. Pourtant, l’IA offre aussi des solutions pour les cyberdéfenseurs : détection et correction de vulnérabilités, réduction des coûts… On fait le point à la suite de la conférence donnée par Gérôme Billois lors de l’évènement Panocrime2026 du Clusif.

Sources et images provenant de la conférence et de sites tiers.

I. L'IA renouvelle les attaques classiques

1) L’IA accélèrent les cyberattaques

Nous le présentions. Les chiffres le confirme. Un phishing réalisé avec l’aide de l’intelligence artificielle est 4,5 fois plus efficace qu’un phishing classique nous indique le dernier rapport de Microsoft sur la défense numérique de 2025. En effet, fini les fautes d’orthographe et les mises en pages bancales. Détecter un email de phishing devient de plus en plus compliqué.

L'IA rend les attaques par phishing 4,5 fois plus efficace

Le succès est tel que des outils d’IA ont été développé par des attaquants et répondant à de nombreux cas d’usages. On retrouve ainsi des IA spécialisées dans le phishing, dans l’écriture de codes malveillants, la recherche et la reconnaissance, création de deepfake audios et vidéos, ou encore l’exploitation de vulnérabilité. 

Outils d'intelligence artificielle dans les forums du dark web et leurs caractéristiques
Outils d'IA utilisés par les cyber-attaquants et leurs caractéristiques (Source: Google)

Le marché est dynamique et les cybercriminels revendent cher ses outils, pour des tarifs accessibles, à partir de $100 par mois. L’IA devient ainsi une nouvelle source de revenu pour le cybercrime.

Revente d'outils et de logiciels de cyberattaques utilisant l'IA
WormGPT, FraudeGPT, DarkBERT, DarkBARD, DarkGPT sont des outils revendus par des cybercriminels et sont accessibles à partir d'une 100e de dollars.

2) Les attaques IA deviennent de plus en plus automatisées

Les cybercriminels s’appuient également sur des agents IA pour piloter des attaques. Les chercheurs d’Anthropic, éditeur de Claude, ont ainsi observé une attaque matérialisée par le diagramme ci-dessous :

Attaque cyber par un agent IA sur claude d'Anthropic

Lors de la phase de reconnaissance, l’attaquant définit la cible qu’il souhaite attaquer. Il laisse ensuite son agent IA réaliser les différentes opérations de manière automatique : découverte de la surface d’attaque et tests de vulnérabilité. Selon Anthropic, l’attaquant pourrait ainsi gagner des dizaines d’heures dans la réalisation de ce type d’attaques.

3) Des premières attaques autonomes menées par des IA

La première attaque autonome connue a touché l’Ukraine. Il s’agit du malware Prompt Steal. La particularité de ce malware réside dans sa capacité à générer de nouvelles commandes instantanément via l’IA, ce qui le rend plus difficile à neutraliser.

prompt steal malware contenant des instructions vesr un modèle IA opensource

Prompt Flux est un autre malware qui une fois installé, va réécrire à chaque fois de manière différentes ses codes d’exécutions à l’aide de l’IA pour le rendre plus difficile à détecter.

Les chercheurs Google identifient un malware qui modifie son code de manière autonome avec Gemini - Prompt Flux

Cependant, des chercheurs de Google sont venus nuancer la dangerosité de ses malwares. En effet, leur détection est encore relativement aisée. Mais pour combien de temps ?

Les malwares IA ne sont pas encore dangereux nous dit Google

II. Exploration de nouvelles surfaces d’attaques

1) Des agents IA détournés par des instructions malveillantes

Des travaux de recherche d’aim labs ont démontré la première attaque zéro-clic fonctionnant avec l’agent d’IA Copilot de Microsoft. Un email masquant un prompt destiné à l’agent IA est envoyé à un utilisateur. L’utilisateur demande par exemple à Copilot d’avoir un résumé de ses emails de la journée. Les emails sont analysés par l’agent IA, qui interprète le prompt caché dans l’email (par exemple, un prompt écrit en blanc sur fond blanc, invisible à l’œil nu). Le prompt est ensuite exécuté par l’agent légitime qui réalise un résumé d’un certain nombre d’informations sensibles et qui en suivant les instructions du prompt caché exfiltre les données.

EchoLeak première attaque zero clic documentée sur un agent d'IA copilot
EchoLeak, la première attaque zéro-clic documentée sur un agent d'IA Copilot de Microsoft

L’IA de Google Gemini est également concernée. En fin d’année dernière, une attaque localisée dans une invitation de réunion a été envoyée à l’agent IA. En analysant l’invitation, Gemini va involontairement construire les différentes actions menant à l’exfiltration des données.

Fuite de données GeminiJack dans une invitation

2) Attaques via les navigateurs web boostés à l'IA

Les navigateurs boostés à l’intelligence artificielle sont apparus en 2025 : Comet de Perlexity ou Atlas d’OpenAI. Hors, ces navigateurs semblent constituer de nouveaux vecteurs d’attaques. Des instructions malveillantes peuvent se cacher dans certains sites web ou dans des URL. Lorsque le navigateur clic et interprète ce qu’il voit, il peut être ainsi amené à exécuter une instruction malveillante.

D’après de nombreux experts et chercheurs en informatique, il semblerait que le fonctionnement même des navigateurs boostés à l’IA ne permettent pas d’assurer un usage sécurisé.

En effet, le modèle de sécurité de nos navigateurs est historiquement basé sur une séparation (un cloisonnement) de nos pages de navigation. L’usage de navigateurs IA remet en cause ce modèle de sécurité, à tel point que le Gartner conseille de faire une pause dans l’adoption des navigateurs boostés à l’IA de part le problème fondamental de révision du modèle de confiance auquel on avait l’habitude nous dit très justement Gérôme Billois.

Le gartner invite à ne pas utiliser les navigateurs IA pour raisons de sécurité.jpg

3) Attaques via les robots humanoïdes

Crédit Photo - Forums Reddit Singularity
Cela ne vous a pas échappé : Atlas de Boston Dynamics, Tesla Optimus, Figure O2… Nous assistons à une véritable explosion de la robotique humanoïde. Des robots qui réalisent des tâches de plus en plus diverses et variées. Cependant, ces robots  embarquent de très nombreuses failles de sécurité, pour certaines très anciennes (Bluetooth, télémétrie.)… Sans parler des risques sur la confidentialité des données pour des gadgets censés partager nos domiciles. 
Des failles de sécurité trouvées dans les robots humanoïdes
En résumé, les modèles actuels d’IA, qu’ils soient embarqués dans des agents IA, dans des navigateurs boostés ou des robots humanoïdes, reposent tous sur des IA génératives avec lesquelles on interagit. Hors, la manière dont ont configure et on utilise ces outils nous dit Gérôme Billois passent par le même canal. On configure par un prompt. On utilise l’IA par un prompt. Cela constitue un changement de paradigme alors qu’avant, la console d’administration était séparée de la console d’utilisation. 
Contournement et hack des IA par injection de prompts

Il est donc nécessaire aujourd’hui d’intégrer la sécurité au cœur même de la construction de ces modèles d’intelligence artificielle (i.e. Security by design).

III. Mais, l’intelligence artificielle est aussi un véritable accélérateur pour les défenseurs

Tout n’est pas sombre et l’IA peut également être bénéfique pour les cyber-défenseurs. En effet, des chercheurs ont démontré qu’il était possible de trouver des vulnérabilités et de les corriger en étant assisté par des IA….voir même de gagner des bug bounty !
Des agents IA trouvent des vulnérabilités comme Xbow HackerOne, Google Big Sleep

Un autre exemple ou l’IA est un accélérateur au service des cyber-défenseurs est donné avec le projet AIxCC de la DARPA (agence de défense américaine). Ce projet visait à identifier et corriger avec l’IA des vulnérabilités sur plus de 80+ projets opensources. Le résultat : Près de 70 % des bugs ont été identifiés et des correctifs trouvés dans 61 % des cas.

Le projet AIxCC de la DARPA pour corriger des failles sur des projets opensources

En moyenne , il n’aura fallut que 45 minutes à l’agent IA entre l’analyse du code source, l’identification de la vulnérabilité, la correction, le tests et la compilation du code source, pour un coût moyen estimé de 450 $ (de puissance informatique). Imbattable. 

Enfin, terminons par une ressource utile pour les organisations qui souhaiteraient intégrer l’IA dans leurs projets numériques : Le CLUSIF met à disposition gratuitement un modèle de  PSSI intégrant l’IA.

Leave A Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

2 × 5 =