La promesse de l’IA dans la cybersécurité était celle d’un bouclier intelligent. Mais les dernières révélations de SentinelOne démontrent qu’elle peut aussi devenir une arme offensive redoutable. Selon un rapport publié par les chercheurs Alex Delamotte et Jim Walter, un bot nommé AkiraBot aurait compromis près de 80 000 sites web depuis septembre 2024, en exploitant des outils d’intelligence artificielle à des fins malveillantes. Cet exemple montre comment un spam conçu par de l’IA et chat GPT OpenAI peut causer des dommages considérables.
Le bot, qui s’est appuyé sur l’API GPT-4o-mini d’OpenAI, a été conçu pour automatiser l’envoi de messages publicitaires, souvent camouflés sous forme de sollicitations commerciales ou d’offres SEO. Loin d’un ransomware ou d’un malware destructeur, l’objectif d’AkiraBot est économique : générer du spam de masse pour promouvoir des services d’optimisation de sites web.
Des cibles choisies avec soin : TPE, PME et CMS populaires
L’enquête met en lumière un ciblage précis. Contrairement à une campagne opportuniste, AkiraBot a concentré ses attaques sur les petites et moyennes entreprises, souvent moins protégées en matière de cybersécurité. Les plateformes les plus touchées incluent Shopify, Wix, Squarespace et GoDaddy, en raison de leurs empreintes techniques facilement identifiables par les scripts.
Sur les 400 000 sites ciblés, 80 000 auraient été effectivement compromis, avec injection de contenu ou redirections indésirables. L’attaque illustre la vulnérabilité structurelle de l’écosystème des CMS low-code/no-code, souvent perçus comme « clés en main », mais peu durcis par défaut.
Une stratégie industrielle reposant sur l’automatisation IA
L’originalité d’AkiraBot réside dans l’usage de plusieurs briques technologiques en synergie :
- GPT-4o-mini d’OpenAI pour générer des messages fluides, crédibles, adaptables selon le contexte des sites.
- Des outils d’évasion des CAPTCHAs pour automatiser les formulaires.
- Une infrastructure de scraping et d’attaque capable de scaler à très large échelle.
Cette industrialisation du spam permet de contourner les filtres classiques de sécurité et d’échapper aux détections standards. En s’appuyant sur des textes IA plausibles, AkiraBot mime en effet un comportement légitime.
Une offensive commerciale déguisée en piratage
L’un des aspects les plus troublants reste le but final de cette opération. Il ne s’agit pas d’une attaque destructrice, mais d’un usage dévoyé de l’IA à des fins marketing agressives. Les messages générés incitaient les administrateurs de sites à acheter des services SEO, promettant un meilleur classement dans Google.
SentinelOne précise qu’il n’existe aucun lien entre AkiraBot et le ransomware Akira, malgré la confusion possible. Il s’agit ici d’une campagne d’influence commerciale aux méthodes discutables, surfant sur la crédulité des petites structures, souvent peu outillées pour détecter ce type d’abus.
OpenAI a réagi, mais le mal est fait
Alertée, OpenAI aurait désactivé la clé d’API utilisée, mettant un terme temporaire à la campagne. Mais l’affaire soulève de nombreuses questions :
- Quels garde-fous existent pour prévenir l’usage abusif des LLM via API ?
- Quelles responsabilités portent les fournisseurs d’IA sur les usages tiers ?
- Comment protéger efficacement les petites structures de ce type d’attaque insidieuse ?
Le spam change d’échelle à l’ère de l’IA
L’affaire AkiraBot rappelle que l’intelligence artificielle, si elle offre des opportunités majeures, peut aussi être détournée à des fins malveillantes avec une efficacité redoutable. La sophistication des campagnes de spam, la précision du ciblage et l’automatisation ultra-rapide posent de nouveaux défis pour la sécurité web.
Plus que jamais, les TPE/PME doivent durcir leurs CMS, surveiller leurs formulaires et sensibiliser leurs équipes. Dans l’écosystème numérique de 2025, le spam n’est plus une nuisance périphérique, c’est une tactique commerciale invasive nourrie par l’IA.
Un commentaire
GPT pour faire du spam on parle de Freenews?