L’IA générative, accélérateur d’attaques : enseignements clés de la synthèse du CERT-FR
Le 04 février 2026, le CERT-FR a publié la synthèse "L’IA générative face aux attaques informatiques – Synthèse de la menace en 2025". Le diagnostic est nuancé : le CERT-FR n’identifie pas, à ce stade, de cyberattaque "entièrement menée" par IA ni de système capable d’automatiser seul l’ensemble d’une chaîne d’attaque, mais juge très plausible que l’IA générative continue d’augmenter le volume, la vitesse et la crédibilité des opérations malveillantes.
Côté offensif, l’IA générative est surtout utilisée comme facilitateur sur des étapes où elle apporte un gain immédiat : production de contenus d’ingénierie sociale (hameçonnage, faux sites, faux profils), assistance au développement/à l’adaptation de scripts, et exploitation plus rapide de données exfiltrées (tri, extraction d’informations d’intérêt).
Les progrès sur la recherche de vulnérabilités et d’exploits restent plus limités et dépendants de compétences humaines, même si des avancées côté défense laissent entrevoir une montée en puissance future.
La synthèse souligne également une dynamique de contournement : les attaquants cherchent à contourner (“jailbreak”) les garde-fous techniques des services grand public, comme ChatGPT, via des techniques de prompt engineering. Parallèlement, l’écosystème cybercriminel propose des offres d’IA dites « débridées », telles que WormGPT, FraudGPT ou EvilGPT, conçues pour permettre des usages malveillants sans restriction.
Enfin, le CERT FR insiste sur un second volet : les systèmes d’IA deviennent une cible. Les risques cités couvrent l’empoisonnement des données d’entraînement, l’introduction de backdoors lors de l’intégration, et des attaques à l’inférence (ex. injection pour altérer les réponses ou soutirer des informations). L’intégration des LLM à des outils et sources externes élargit aussi la surface d’attaque (supply chain, connecteurs/agents), avec des pratiques comme le "slopsquatting" où les attaquant exploitent les hallucinations de l’IA pour introduire des paquets malveillants dans la chaîne d’approvisionnement logicielle en récupérant des noms de paquets imaginés par des IA puis en diffusant des versions malveillantes.
Pour réduire le risque, les priorités opérationnelles sont : encadrer les usages (politique + sensibilisation phishing/deepfake), maîtriser les données (interdiction/contrôle des informations sensibles dans les prompts), sécuriser les intégrations (cloisonnement, moindre privilège, journalisation), et durcir les comptes (MFA, lutte contre infostealers) afin de limiter compromissions et fuites associées aux outils d’IA en contexte professionnel.