L'ANSSI publie son rapport menaces et incidents 2026 concernant l'IA
L'IA générative s'impose dans les modes opératoires offensifs : l'ANSSI dresse un état des lieux inédit
Publié le 4 février 2026, le rapport CERTFR-2026-CTI-001 de l'ANSSI constitue la première synthèse française dédiée à l'usage dual de l'IA générative dans le paysage des menaces cyber. Il documente aussi bien l'instrumentalisation de ces outils par les attaquants que les nouvelles vulnérabilités qu'ils introduisent au sein des systèmes d'information.
Un facilitateur d'attaques désormais accessible à tous les profils
L'ANSSI l'affirme sans ambiguïté : à ce jour, aucune cyberattaque dirigée contre un acteur français n'a été formellement attribuée à un système d'IA agissant de manière autonome. Cette précision posée, le rapport dresse un tableau préoccupant de l'usage que les groupes offensifs font des outils d'IA générative commerciaux. En janvier 2025, Google indiquait que son modèle Gemini avait été exploité par des opérateurs liés à au moins dix modes opératoires d'attaque iraniens, vingt chinois, neuf nord-coréens et trois russes entre 2023 et 2024.
Ces acteurs recourent à l'IA générative à plusieurs étapes de la chaîne d'attaque. La reconnaissance et l'ingénierie sociale constituent les usages les plus documentés : des opérateurs liés à la Corée du Nord auraient utilisé ces outils pour créer de faux profils d'entreprises et d'employés sur les réseaux sociaux, tandis que des groupes liés à l'Iran les auraient mobilisés pour cibler des experts et des organisations d'intérêt via Gemini. L'ANSSI signale par ailleurs avoir observé à plusieurs reprises des sites Internet à l'apparence légitime semblant avoir été générés par des systèmes d'IA, utilisés pour héberger des charges malveillantes ou profiler des visiteurs.
Le développement de codes malveillants constitue un second axe d'usage. En 2024, le groupe TA547 aurait recouru à un script PowerShell généré par un LLM pour compromettre une entreprise allemande. Plus récemment, des chercheurs ont mis au point PromptLock, un prototype de rançongiciel dont la particularité est de générer dynamiquement ses propres scripts à l'exécution, rendant sa détection particulièrement difficile. Google a par ailleurs identifié Promptflux, un code malveillant polymorphique qui sollicite l'API Gemini pour réécrire intégralement son code source toutes les heures.
Des limites techniques réelles, mais une menace croissante
Le rapport nuance cependant l'étendue réelle de cette menace. La recherche de vulnérabilités zero-day reste hors de portée des systèmes d'IA générative actuellement disponibles : sur une cinquantaine de modèles testés par des chercheurs, trois seulement ont permis de développer un exploit fonctionnel, au terme de nombreuses heures de travail. Aucun cas avéré d'exploitation d'une vulnérabilité zero-day découverte par IA n'a été documenté à ce jour. Des progrès récents méritent toutefois attention : en juin 2025, le système XBOW a soumis des centaines de rapports de vulnérabilités sur des programmes de bug bounty, dont certaines qualifiées de critiques, sans intervention humaine.
Les systèmes d'IA, nouvelles cibles des attaquants
L'ANSSI consacre une partie significative du rapport aux menaces pesant sur les systèmes d'IA eux-mêmes. Le risque d'empoisonnement des données d'entraînement est documenté : une analyse conjointe du UK AI Security Institute et de l'Alan Turing Institute a démontré qu'il suffirait de 250 documents malveillants pour altérer un modèle, indépendamment de la taille de ses données d'apprentissage. Des modèles disponibles en sources ouvertes sur des plateformes comme Hugging Face ont également été identifiés comme potentiellement compromis, capables d'installer une porte dérobée dès leur téléchargement.
La compromission des comptes utilisateurs représente un autre vecteur concret : entre 2022 et 2023, plus de 100 000 comptes ChatGPT ont été exfiltrés via des infostealers puis revendus sur des forums cybercriminels. À cela s'ajoute le risque de fuite involontaire de données sensibles par les collaborateurs eux-mêmes, illustré en juin 2023 par l'affaire Samsung, dans laquelle des employés avaient divulgué des informations relatives aux semi-conducteurs via leur compte ChatGPT.
En substance
L'IA générative est désormais intégrée dans les chaînes d'attaque de groupes étatiques et cybercriminels de premier plan. Elle amplifie la vitesse et le volume des attaques sans encore en automatiser l'intégralité. Les systèmes d'IA constituent également des cibles à part entière, exposées à l'empoisonnement, aux backdoors et aux attaques par chaîne d'approvisionnement. La compromission de comptes utilisateurs et les fuites de données internes représentent des risques opérationnels immédiats pour les organisations.
Source : ANSSI