
L’intelligence artificielle transforme la menace cyber en accélérant et en automatisant les attaques : phishing 4,5 fois plus efficace, malwares autonomes et outils accessibles aux hackers dès 100 $/mois. On assiste également à de nouvelles surfaces d’attaques qui émergent avec les agents IA, les navigateurs boostés et les robots humanoïdes, qui constituent autant de nouveaux vecteurs. Pourtant, l’IA offre aussi des solutions pour les cyberdéfenseurs : détection et correction de vulnérabilités, réduction des coûts… On fait le point à la suite de la conférence donnée par Gérôme Billois lors de l’évènement Panocrime2026 du Clusif.
Sources et images provenant de la conférence et de sites tiers.
Nous le présentions. Les chiffres le confirme. Un phishing réalisé avec l’aide de l’intelligence artificielle est 4,5 fois plus efficace qu’un phishing classique nous indique le dernier rapport de Microsoft sur la défense numérique de 2025. En effet, fini les fautes d’orthographe et les mises en pages bancales. Détecter un email de phishing devient de plus en plus compliqué.
Le succès est tel que des outils d’IA ont été développé par des attaquants et répondant à de nombreux cas d’usages. On retrouve ainsi des IA spécialisées dans le phishing, dans l’écriture de codes malveillants, la recherche et la reconnaissance, création de deepfake audios et vidéos, ou encore l’exploitation de vulnérabilité.
Le marché est dynamique et les cybercriminels revendent cher ses outils, pour des tarifs accessibles, à partir de $100 par mois. L’IA devient ainsi une nouvelle source de revenu pour le cybercrime.
Les cybercriminels s’appuient également sur des agents IA pour piloter des attaques. Les chercheurs d’Anthropic, éditeur de Claude, ont ainsi observé une attaque matérialisée par le diagramme ci-dessous :
Lors de la phase de reconnaissance, l’attaquant définit la cible qu’il souhaite attaquer. Il laisse ensuite son agent IA réaliser les différentes opérations de manière automatique : découverte de la surface d’attaque et tests de vulnérabilité. Selon Anthropic, l’attaquant pourrait ainsi gagner des dizaines d’heures dans la réalisation de ce type d’attaques.
La première attaque autonome connue a touché l’Ukraine. Il s’agit du malware Prompt Steal. La particularité de ce malware réside dans sa capacité à générer de nouvelles commandes instantanément via l’IA, ce qui le rend plus difficile à neutraliser.
Prompt Flux est un autre malware qui une fois installé, va réécrire à chaque fois de manière différentes ses codes d’exécutions à l’aide de l’IA pour le rendre plus difficile à détecter.
Cependant, des chercheurs de Google sont venus nuancer la dangerosité de ses malwares. En effet, leur détection est encore relativement aisée. Mais pour combien de temps ?
Des travaux de recherche d’aim labs ont démontré la première attaque zéro-clic fonctionnant avec l’agent d’IA Copilot de Microsoft. Un email masquant un prompt destiné à l’agent IA est envoyé à un utilisateur. L’utilisateur demande par exemple à Copilot d’avoir un résumé de ses emails de la journée. Les emails sont analysés par l’agent IA, qui interprète le prompt caché dans l’email (par exemple, un prompt écrit en blanc sur fond blanc, invisible à l’œil nu). Le prompt est ensuite exécuté par l’agent légitime qui réalise un résumé d’un certain nombre d’informations sensibles et qui en suivant les instructions du prompt caché exfiltre les données.
L’IA de Google Gemini est également concernée. En fin d’année dernière, une attaque localisée dans une invitation de réunion a été envoyée à l’agent IA. En analysant l’invitation, Gemini va involontairement construire les différentes actions menant à l’exfiltration des données.
Les navigateurs boostés à l’intelligence artificielle sont apparus en 2025 : Comet de Perlexity ou Atlas d’OpenAI. Hors, ces navigateurs semblent constituer de nouveaux vecteurs d’attaques. Des instructions malveillantes peuvent se cacher dans certains sites web ou dans des URL. Lorsque le navigateur clic et interprète ce qu’il voit, il peut être ainsi amené à exécuter une instruction malveillante.
D’après de nombreux experts et chercheurs en informatique, il semblerait que le fonctionnement même des navigateurs boostés à l’IA ne permettent pas d’assurer un usage sécurisé.
En effet, le modèle de sécurité de nos navigateurs est historiquement basé sur une séparation (un cloisonnement) de nos pages de navigation. L’usage de navigateurs IA remet en cause ce modèle de sécurité, à tel point que le Gartner conseille de faire une pause dans l’adoption des navigateurs boostés à l’IA de part le problème fondamental de révision du modèle de confiance auquel on avait l’habitude nous dit très justement Gérôme Billois.
Il est donc nécessaire aujourd’hui d’intégrer la sécurité au cœur même de la construction de ces modèles d’intelligence artificielle (i.e. Security by design).
Un autre exemple ou l’IA est un accélérateur au service des cyber-défenseurs est donné avec le projet AIxCC de la DARPA (agence de défense américaine). Ce projet visait à identifier et corriger avec l’IA des vulnérabilités sur plus de 80+ projets opensources. Le résultat : Près de 70 % des bugs ont été identifiés et des correctifs trouvés dans 61 % des cas.
En moyenne , il n’aura fallut que 45 minutes à l’agent IA entre l’analyse du code source, l’identification de la vulnérabilité, la correction, le tests et la compilation du code source, pour un coût moyen estimé de 450 $ (de puissance informatique). Imbattable.
Enfin, terminons par une ressource utile pour les organisations qui souhaiteraient intégrer l’IA dans leurs projets numériques : Le CLUSIF met à disposition gratuitement un modèle de PSSI intégrant l’IA.