Cybersécurité : OpenAI neutralise plus de 20 attaques malveillantes utilisant ChatGPT
En 2024, la société d’intelligence artificielle OpenAI a révélé que son agent conversationnel, ChatGPT, est devenu un outil courtisé par les cybercriminels pour élaborer des malwares, orchestrer des attaques de phishing et se livrer à de la désinformation. OpenAI a réussi à perturber plus de 20 opérations cybercriminelles à l’échelle mondiale, impliquant des groupes notoires comme “SweetSpecter”, d’origine chinoise, et “CyberAv3ngers”, affilié aux Gardiens de la révolution iraniens. Ces acteurs ont exploité ChatGPT pour des tâches telles que l’utilisation malveillante de scripts Python ou l’envoi de faux e-mails de phishing en utilisant des techniques d’ingénierie sociale.
OpenAI a récemment révélé son action significative dans le domaine de la cybersécurité, en neutralisant plus de vingt opérations malveillantes menées à l’aide de son agent conversationnel, ChatGPT. Ces opérations allaient de la création de malwares et d’attaques de phishing par ingénierie sociale, à la diffusion de désinformation sur les réseaux sociaux. Des groupes de hackers, principalement des cybercriminels chinois et iraniens, ont été identifiés comme les principaux acteurs de ces attaques sophistiquées.
Utilisation de ChatGPT pour des opérations cybermalveillantes
C’est par le biais d’un rapport détaillé qu’OpenAI a confirmé avoir perturbé de nombreuses attaques exploitant son modèle ChatGPT pour des activités cybercriminelles. Le rapport mentionne qu’OpenAI a bloqué des dizaines de réseaux frauduleux utilisant l’IA générative pour développer des logiciels malveillants, rédiger des articles pour le web, et créer de faux profils destinés à être diffusés sur les réseaux sociaux. L’introspection de l’organisation montre que les hackers utilisent fréquemment ces modèles d’intelligence artificielle pour simplifier leurs opérations.
Actions ciblées des groupes de cybercriminels
Un groupe notoire, connu sous le nom de “SweetSpecter”, originellement perçu comme un cyberespion chinois, a notamment fait parler de lui en menant des attaques directes contre OpenAI. Utilisant l’ingénierie sociale, ce groupe a envoyé des courriels de phishing aux employés d’OpenAI, intégrant des pièces jointes malveillantes sous forme de fichiers ZIP. Ces pièces jointes cachent le cheval de Troie d’accès à distance nommé SugarGh0st RAT, illustrant la sophistication croissante des outils de cybersécurité nécessaires pour contrer de telles menaces.
Reconnaissance et exploitation des vulnérabilités
OpenAI a découvert que “SweetSpecter” utilisait divers comptes ChatGPT pour des actions de reconnaissance. Les éléments collectés incluaient des détails précis sur les vulnérabilités des systèmes, des connaissances sur les scanners de sécurité, et des niveaux de vulnérabilité de certaines bibliothèques de logiciels. La possibilité de demander du code ou de l’assistance pour le débogage d’extensions de programmes montre bien comment ChatGPT est exploité au-delà de ses capacités initialement prévues.
Scripts personnalisés et méthodes de vol de données
Un autre groupe, nommé “CyberAv3ngers”, affilié aux Gardiens de la révolution iraniens, a recours à ChatGPT pour générer des scripts Python personnalisés. Ils utilisent ces scripts pour infiltrer les systèmes, en ciblant les mots de passe des utilisateurs sur MacOS, tout en analysant les réseaux et fichiers ZIP pour détecter des vulnérabilités potentielles. Ces actions confirment une montée en puissance dans l’utilisation des outils logiciels par des entités malveillantes, amplifiant ainsi la menace pour les industries occidentales.
Contenu généré autour d’événements électoraux
OpenAI a également signalé des campagnes de désinformation axées sur les élections mondiales, y compris les élections européennes. Un groupe iranien, surnommé “Storm-0817”, utilise ChatGPT pour perfectionner les malwares sur Android afin de recueillir des informations sensibles comme les historiques d’appels et les coordonnées GPS des utilisateurs. Les réseaux sociaux sont également pris d’assaut pour influencer l’opinion publique lors des élections en Europe, bien que l’impact réel reste limité selon OpenAI.
Mesures préventives d’OpenAI
Face à cette menace croissante, OpenAI a pris des mesures décisives en bannissant tous les comptes utilisés pour des activités malveillantes. De plus, les indicateurs de compromission tels que les adresses IP ont été fournis aux autorités compétentes et aux partenaires en cybersécurité. Cet effort collectif montre la gravité et la nécessité d’une réponse consolidée face à l’exploitation malveillante des technologies d’intelligence artificielle.
Commentaires
Laisser un commentaire