Accueil 5 Actualités 5 Quand l’IA change de camp : WormGPT, KawaiiGPT et la banalisation des capacités cyber offensives

Le blog

Quand l’IA change de camp : WormGPT, KawaiiGPT et la banalisation des capacités cyber offensives

par | 3 Déc 2025

L’année 2025 marque un tournant discret mais profond dans l’évolution des menaces cyber. L’intelligence artificielle, longtemps présentée comme un outil défensif au service des équipes de sécurité, devient peu à peu un accélérateur pour les attaquants. Non pas parce qu’elle inventerait des techniques inédites, mais parce qu’elle industrialise, automatise et démocratise des savoir-faire jusqu’ici réservés à des profils très qualifiés. Il suffit désormais de quelques prompts bien tournés pour produire du code fonctionnel, des scripts d’intrusion, des mouvements latéraux automatisés ou des campagnes de phishing crédibles. Le temps où les cybercriminels devaient maîtriser les langages, les réseaux et les outils offensifs touche à sa fin. Ce qui change aujourd’hui n’est pas la nature des attaques, mais la vitesse et la facilité avec lesquelles elles peuvent être exécutées.

Dans cet écosystème en mutation, deux modèles font particulièrement parler d’eux : WormGPT 4 et KawaiiGPT. Le premier, apparu initialement en 2023, a ressurgi sous une forme beaucoup plus puissante, grâce à un entraînement orienté vers l’offensif. Le second, né récemment dans les milieux underground, repose sur une philosophie radicalement différente : totalement open-source, totalement déployable localement, totalement incontrôlé. Tous deux incarnent une tendance qui s’installe : la montée des LLM non censurés, conçus non pas pour assister des développeurs légitimes, mais pour servir des intentions criminelles.

Le fonctionnement de ces modèles ne repose sur aucune magie. Un modèle de langage, quel qu’il soit, génère du texte, du code, des instructions ou des explications en fonction de ce sur quoi il a été entraîné. Un modèle légitime intègre des garde-fous, des filtres, des règles éthiques, des couches de refus. Un modèle détourné, lui, supprime ces limites. WormGPT 4 ne fait pas « plus » que ChatGPT ou d’autres modèles : il fait simplement ce que les modèles classiques refusent de produire. C’est ce contournement qui fait sa dangerosité, pas une supériorité technique intrinsèque. Ses créateurs ont réentraîné le modèle sur des corpus offensifs : fragments de ransomwares, exemples de scripts PowerShell, templates de phishing, commandes de mouvement latéral, procédures de compromission. On ne parle donc pas d’intelligence, mais d’imitation accélérée.

Lorsque les chercheurs ont demandé à WormGPT 4 de générer un script PowerShell capable de rechercher et chiffrer des fichiers PDF en AES-256, la réponse a été immédiate, fonctionnelle, commentée. Le script incluait même une option intégrée d’exfiltration via Tor. L’intérêt d’un tel modèle n’est pas seulement de produire un code qui « fonctionne », mais d’accélérer la phase préparatoire des attaquants. Là où il fallait auparavant plusieurs heures ou plusieurs jours pour produire un outil sur mesure, quelques minutes suffisent désormais. Cette réduction du cycle de développement n’est pas anecdotique : elle change profondément la dynamique des attaques. Les campagnes deviennent plus nombreuses, plus variées, plus personnalisées. La barrière d’entrée technique s’effondre.

WormGPT 4 excelle aussi dans la génération de notes de rançon, avec un sens du ton et de la logique qui tranche avec les messages approximatifs observés les années précédentes. Les formulations mettent en avant une « cryptographie de grade militaire », des menaces graduées, un ultimatum. Rien de nouveau en soi, mais une exécution nettement plus convaincante, sans fautes, sans maladresses. Une communication criminelle plus propre, plus professionnelle, qui s’aligne sur les pratiques des grands groupes de ransomware.

De son côté, KawaiiGPT adopte une approche plus artisanale, mais tout aussi inquiétante. Open-source, déployable localement en quelques minutes sur un simple Linux, il permet de contourner la moindre tentative de régulation ou de surveillance. Ses utilisateurs peuvent générer du spear-phishing réaliste, en s’appuyant sur des domaines falsifiés et des liens d’exfiltration discrets. Là encore, rien de fondamentalement révolutionnaire : le spear-phishing existe depuis vingt ans. Ce qui change, c’est que n’importe qui peut désormais produire des messages crédibles, sans faute, adaptés à une cible donnée, sans la moindre compétence rédactionnelle ou technique. Le modèle propose des scripts clés en main en Python basés sur Paramiko, permettant d’exécuter des commandes à distance et de se déplacer latéralement dans un réseau compromis. Même si KawaiiGPT n’est pas capable de générer un ransomware complet, il fournit tout ce qu’il faut pour préparer le terrain : élévations de privilèges, vol de données, exécution de charges additionnelles.

Quand des modèles de ce type deviennent accessibles par abonnement ou en téléchargement direct, un phénomène se produit : la compétence cesse d’être un prérequis. Là où les attaques sophistiquées nécessitaient auparavant des profils expérimentés, souvent rares, souvent coûteux, elles deviennent accessibles à des acteurs opportunistes, peu qualifiés, mais motivés. Le paysage des menaces s’en trouve élargi. L’équation classique « compétence + temps + moyens » perd son sens : il suffit désormais de payer, d’installer, de demander. Cette dévaluation du niveau technique nécessaire ouvre la voie à une hausse quantitative des attaques, mais aussi à une diversification qualitative. Un logiciel malveillant qui aurait été trop long ou trop complexe à produire à la main peut être généré à la demande. Une campagne de phishing ciblée, autrefois fastidieuse, peut être industrialisée.

Les communautés autour de ces modèles, qu’elles soient publiques ou cachées derrière des messageries chiffrées, jouent un rôle clé. Elles fournissent des conseils, des retours d’expérience, des ajustements de prompts, des optimisations. On assiste à la création d’une véritable économie parallèle de l’automatisation criminelle, où le savoir circule, s’améliore, se démocratise. Cette tendance n’en est qu’à ses débuts, et les premiers indices montrent déjà une professionnalisation inquiétante des nouveaux entrants.

Pour les organisations légitimes, la conséquence la plus immédiate est l’amélioration spectaculaire du phishing. Là où les emails frauduleux étaient autrefois truffés de fautes, visibles, maladroits, ils deviennent fluides, crédibles, contextualisés. Ils reproduisent les tournures professionnelles, les habitudes lexicales, les tons institutionnels. Les modèles peuvent même imiter la structure d’emails internes propres à certaines organisations. Cela entraîne mécaniquement une hausse des taux de clic, en particulier dans les environnements où la sensibilisation repose encore sur la détection visuelle des incohérences. Les campagnes traditionnelles de formation deviennent insuffisantes : reconnaître un message créé par un humain n’a plus la même valeur lorsqu’on fait face à une IA qui copie parfaitement les patterns.

Au-delà, l’apparition de modèles malveillants brouille la frontière entre script kiddies et cybercriminels aguerris. Un utilisateur peu expérimenté, équipé d’un modèle offensif, peut produire un outil susceptible d’être détecté comme l’œuvre d’un acteur avancé. Cela complique la compréhension des menaces, la catégorisation, l’attribution. Pour les SOC et les équipes de threat intelligence, un nouveau chantier s’ouvre : identifier non plus seulement les familles de malwares, mais aussi les signatures textuelles et comportementales générées par ces modèles. L’IA devient une source d’artefacts à analyser, à surveiller, à comprendre.

Ce basculement appelle une réponse organisationnelle plus mature. Les contrôles techniques classiques — antivirus, filtrage, signatures — ne suffisent plus. Il devient nécessaire d’investir dans des mécanismes comportementaux, dans l’analyse des anomalies, dans des approches Zero Trust où le contexte prime sur l’apparence. La question n’est plus de savoir si un email « semble crédible », mais si la demande qu’il contient est cohérente avec les usages réels. L’authentification multifactorielle, souvent discutée, devient incontournable : les modèles peuvent imiter l’humain, mais ne peuvent pas imiter une possession physique.

Cette nouvelle ère impose également de repenser la veille. Les modèles offensifs ne sont pas des menaces isolées : ils s’inscrivent dans une chaîne plus large, où des outils non censurés, des corpus spécialisés et des communautés organisées jouent un rôle déterminant. Les équipes CTI doivent désormais surveiller ces nouveaux espaces : forums privés, canaux chiffrés, partages de modèles dérivés, évolutions des capacités. L’objectif n’est pas de s’immerger dans l’underground, mais de comprendre ce que ces outils permettent à des acteurs novices. Le risque ne réside pas dans l’IA elle-même : il réside dans l’abaissement des barrières à l’attaque.

En fin de compte, les LLM malveillants n’inventent pas la cybercriminalité, mais ils en accélèrent la transformation. Les principes d’attaque restent les mêmes, mais les étapes manuelles disparaissent. Le temps, la compétence et la créativité ne sont plus des ressources rares pour les attaquants : ils sont externalisés dans des modèles. Ce que l’on croyait réservé à des acteurs avancés devient un produit grand public, empaqueté, clé en main, prêt à l’emploi. C’est cette banalisation qui doit inquiéter, beaucoup plus que les capacités techniques des outils.

L’IA n’est pas devenue subitement dangereuse. Elle n’a pas changé de nature. Elle a simplement changé de camp, parce que certains ont choisi de l’y entraîner. Et comme toujours en cybersécurité, la question centrale n’est pas la technologie, mais l’usage que l’on en fait. Dans ce nouvel environnement, les organisations devront combiner vigilance, maturité et anticipation. L’avenir ne sera pas fait d’attaques plus intelligentes, mais d’attaques plus rapides, plus nombreuses, plus accessibles. S’y préparer revient à accepter cette évidence : dans la course entre défense et attaque, l’automatisation est désormais un accélérateur pour les deux camps.

Et c’est la maturité qui fera la différence.

Services

CSM Cybersécurité Audit SSI, audit informatique en Corse à bastia et Ajaccio
Audit RGPD de votre structure : Charte informatique, politique de sécurité des systèmes d'information (PSSI), registre des activités de traitement, gestion des sous-traitants dans la conformité RGPD, expertise RGPD de notre juriste. cabinet CSM - Cybersécurité Management en Corse à Ajaccio et Bastia.
Soc Managé par CSM Cybersécurité Management en Corse sur Bastia et Ajaccio une analyse constantes de l’activité sur les postes de travail et serveurs.
Cyberlégal

cyberlegal.fr

Veille réglementaire dédiée à la cybersécurité & sécurité de l’information

Plus de détail

Logo CERT-FR

CERT-FR
Avis de sécurité

Site web CERT-FR

Dernières publications