Choses à Savoir TECH - Qu’est-ce que Evil-GPT, « l’anti-ChatGPT » ?
Moins de 30 minutes : les meilleurs podcasts courts - En podcast av Acast France

Kategorier:
En août 2023, sur le forum clandestin BreachForums, un compte pseudonyme nommé AMLO mettait en ligne un outil baptisé Evil-GPT — présenté comme « un assistant sans filtre » capable de contourner les gardes-fous habituels des grands modèles de langage. La promesse : générer en quelques clics des scripts malveillants, des campagnes de phishing ou des modules de collecte de données, sans besoin de compétences techniques. Le prix d’entrée a fait le reste : une dizaine de dollars pour l’accès complet.Très vite, la communauté underground s’est emparée du produit. Sur Telegram et d’autres canaux, des utilisateurs partagent retours d’expérience, codes générés et méthodes d’exploitation — certains attribuent à ces outils des attaques ciblées ou des fraudes (citations de cas comme Mondial Relay ou Ulyss), témoignant d’une banalisation des pratiques. L’offre s’adresse surtout aux néophytes : interface simple, scripts prêts à l’emploi, export des données vers des serveurs Discord, fonctionnalités clé en main.Mais derrière le battage commercial, la réalité technique est plus prosaïque. Une étude de Trend Micro (2024) a montré qu’Evil-GPT et ses clones ne sont pas des IA indépendantes : ils s’appuient massivement sur l’API d’OpenAI, détournée via des clés volées et des prompts jailbreakés. Les analyses de spécialistes et les témoignages sur les forums indiquent que les productions restent souvent basiques — e-mails de phishing génériques, scripts simples — et pas toujours adaptées à des attaques sophistiquées. Pendant ce temps, un écosystème marchand foisonne : WormGPT, FraudGPT, WolfGPT et autres proposent des offres variées, de quelques dizaines à plusieurs milliers de dollars. Le modèle économique mise sur la diffusion massive et l’exclusivité temporaire plutôt que sur des innovations techniques majeures.Conséquence : la barrière d’entrée de la cybercriminalité s’effondre. Les équipes de cybersécurité signalent une hausse des campagnes automatisées et recommandent de traiter toute attaque comme potentiellement générée par un chatbot. Le chercheur Alex Reibman parle d’un essor des « agentic malware » — outils capables d’orchestrer des étapes d’attaque — mais rappelle aussi que leurs limites tiennent souvent aux services d’API sous-jacents. Au final, l’innovation la plus dangereuse n’est peut-être pas l’outil lui-même, mais sa démocratisation. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.