Ciberseguridad: OpenAI neutraliza más de 20 ataques maliciosos utilizando ChatGPT
En 2024, la empresa de inteligencia artificial OpenAI reveló que su chatbot, ChatGPT, se ha convertido en una herramienta cortejada por los ciberdelincuentes para desarrollar malware, orquestar ataques phishing y disfrutar desinformación. OpenAI ha logrado desbaratar más de 20 operaciones cibercriminales a nivel global, involucrando a grupos notorios como “SweetSpecter”, de origen chino, y “CyberAv3ngers”, afiliados a la Guardia Revolucionaria iraní. Estos actores han explotado ChatGPT para tareas como el uso malicioso de secuencias de comandos de Python o enviar correos electrónicos de phishing falsos utilizando técnicas de ingeniería social.
OpenAI reveló recientemente su importante acción en el campo de ciberseguridad, neutralizando más de veinte operaciones maliciosas realizadas utilizando su agente conversacional, ChatGPT. Estas operaciones abarcaron desde la creación de malware y ataques phishing pasando por la ingeniería social, hasta la difusión de desinformación en las redes sociales. Se ha identificado a grupos de piratas informáticos, principalmente ciberdelincuentes chinos e iraníes, como los principales actores detrás de estos sofisticados ataques.
Uso de ChatGPT para operaciones cibernéticas maliciosas
Es a través de un informe detallado que OpenAI confirmó haber frustrado numerosos ataques explotando su modelo. ChatGPT para actividades cibercriminales. El informe menciona que OpenAI bloqueó docenas de redes fraudulentas utilizando IA generativa para desarrollar malware, escribir artículos para la web y crear perfiles falsos para distribuirlos en las redes sociales. La introspección de la organización muestra que los piratas informáticos utilizan con frecuencia estos modelos de inteligencia artificial para simplificar sus operaciones.
Acciones dirigidas de grupos cibercriminales
Un grupo notorio, conocido como “SweetSpecter”, originalmente percibido como un ciberespía chino, saltó a los titulares al llevar a cabo ataques directos contra OpenAI. Usando elingeniería social, este grupo envió correos electrónicos de phishing a empleados de OpenAI, incorporando archivos adjuntos maliciosos en forma de archivos ZIP. Estos archivos adjuntos ocultan el troyano de acceso remoto llamado SugarGh0st RAT, lo que ilustra la creciente sofisticación de las herramientas de ciberseguridad necesarias para contrarrestar dichas amenazas.
Reconocimiento y explotación de vulnerabilidades
OpenAI descubrió que “SweetSpecter” estaba utilizando varias cuentas ChatGPT para acciones de reconocimiento. Los elementos recopilados incluyeron detalles específicos sobre las vulnerabilidades del sistema, conocimientos sobre escáneres de seguridad y niveles de vulnerabilidad de determinadas bibliotecas de software. La capacidad de solicitar código o soporte para el depuración de extensiones del programa demuestra cómo ChatGPT está siendo explotado más allá de sus capacidades inicialmente previstas.
Scripts personalizados y métodos de robo de datos
Otro grupo, llamado “CyberAv3ngers”, afiliado a la Guardia Revolucionaria Iraní, utiliza ChatGPT para generar secuencias de comandos de Python personalizado. Utilizan estos scripts para infiltrarse en los sistemas, apuntando a las contraseñas de los usuarios en MacOS, mientras escanean redes y archivos ZIP en busca de posibles vulnerabilidades. Estas acciones confirman un aumento en el uso de herramientas de software por parte de entidades maliciosas, amplificando así la amenaza a las industrias occidentales.
Contenido generado en torno a eventos electorales
OpenAI también ha informado de campañas de desinformación centradas en elecciones globales, incluidas las europeas. Un grupo iraní, apodado “Storm-0817”, está utilizando ChatGPT para perfeccionar el malware de Android y recopilar información confidencial como historiales de llamadas y coordenadas GPS de los usuarios. Las redes sociales también se utilizan para influir en la opinión pública durante las elecciones en Europa, aunque el impacto real sigue siendo limitado, según OpenAI.
Medidas preventivas de OpenAI
Ante esta creciente amenaza, OpenAI ha tomado medidas decisivas al prohibir todas las cuentas utilizadas para actividades maliciosas. Además, se han proporcionado indicadores de compromiso, como direcciones IP, a las autoridades pertinentes y a los socios de ciberseguridad. Este esfuerzo colectivo muestra la gravedad y la necesidad de una respuesta consolidada a la explotación maliciosa de las tecnologías de inteligencia artificial.
Comments
Leave a comment