Montrer l’index Cacher l’index
L’intelligence artificielle continue d’évoluer, et avec elle, les menaces qu’elle engendre. WormGPT, cette IA malveillante qui a fait sensation en 2023, revient sur le devant de la scène, revitalisée par les modèles Grok et Mistral. Développée initialement pour faciliter la création de contenus frauduleux, cette technologie se transforme en un véritable couteau suisse pour les cybercriminels, pouvant générer des malwares à la chaîne. Le retour de WormGPT soulève de nombreuses questions sur la sécurité et l’éthique, alors que des variantes comme keanu-WormGPT et xzin0vich-WormGPT s’immiscent dans les cercles obscurs du web.
En pleine montée des technologies d’intelligence artificielle, une version malveillante de ces innovations refait surface. WormGPT, ce modèle d’IA utilisé pour générer des malwares, s’implante par le biais de deux variantes inspirées des modèles Grok et Mistral. Ces nouveaux outils, qui opèrent de manière furtive dans des forums underground, ouvrent la porte à des menaces plus sophistiquées et indéniablement plus dangereuses.
La résilience de WormGPT
Démarrant son chemin sur Hack Forums, WormGPT a su s’imposer comme un acteur incontournable de la cybercriminalité. Bien qu’il ait connu une première chute en 2023 avec l’identification de son créateur, la brèche n’est jamais vraiment refermée. Aujourd’hui, WormGPT évolue, alimenté par des failles structurelles des grands modèles de langage, et n’a pas fini de troubler le monde numérique.
Les bases malveillantes du modèle
Loin des principes éthiques qui régissent la plupart des intelligences artificielles, WormGPT représente une menace directe. À ses origines, ce modèle reposait sur GPT-J et permettait à des utilisateurs non spécialisés de concevoir des e-mails de phishing ou des scripts malveillants avec une aisance déconcertante. Contrairement à des systèmes comme ChatGPT, qui se refusent à exécuter des requêtes portées sur des activités illicites, WormGPT agit sans aucune contrainte.
Une réinvention dynamique
En 2024, WormGPT change de visage, apportant avec lui de nouvelles variantes. Les deux nouveaux acteurs, keanu-WormGPT et xzin0vich-WormGPT, s’inspirent des modèles Grok et Mistral. Ces versions se distinguent par un jailbreak des instructions système, rendant leurs actions presque impossibles à détecter.
Les techniques détournées de Grok et Mistral
Xzin0vich-WormGPT exploite des paramètres de Mixtral en activant des experts par jeton, ajoutant ainsi une couche de cohérence à la génération de contenus malveillants. D’un autre côté, keanu-WormGPT repose sur une version jailbreakée de Grok, permettant de contourner les limitations mises en place pour empêcher des utilisations abusives.
Accessibilité et dangers accrus
Leur accessibilité via Telegram, sous forme d’abonnement, rend ces outils particulièrement inquiétants. Ils ne nécessitent pas de compétences avancées, ce qui signifie que même les individus les moins expérimentés peuvent s’engouffrer dans le processus délicat de la cybercriminalité. De simples utilisateurs peuvent ainsi produire des scripts PowerShell pour des vols d’identifiants ou générer des e-mails de phishing plus convaincants que jamais.
À lire Giorgia Meloni : quand l’intelligence artificielle crée des images surprenantes en lingerie
Les mesures de protection insuffisantes
Face à cette montée en puissance des outils de cybercriminalité, les recommandations pour une protection accrue deviennent nécessaires. Les experts, tels que CATO CTRL, préconisent des dispositifs comme l’analyse comportementale, les contrôles d’accès en mode zéro-trust et des simulations régulières de phishing pour créer une barrière contre ces formes de malveillance.
Conclusion sans fin
Le cyberguerre ne fait que commencer. Les acteurs du marché doivent redoubler d’efforts pour se prémunir contre cette menace. Les implications de l’émergence de WormGPT et de ses dérivés sont claires : l’intelligence artificielle a franchi la porte de la criminalité, et il est grand temps de réagir.