Hackers se suben al tren de la IA para afinar ciberataques

Microsoft y OpenAI dicen que los piratas informáticos están utilizando ChatGPT para mejorar los ciberataques

Microsoft y OpenAI revelan hoy que los piratas informáticos ya están utilizando grandes modelos de lenguaje como ChatGPT para refinar y mejorar sus ciberataques existentes. En una investigación recientemente publicada, Microsoft y OpenAI han detectado intentos de grupos respaldados por Rusia, Corea del Norte, Irán y China que utilizan herramientas como ChatGPT para investigar objetivos, mejorar scripts y ayudar a desarrollar técnicas de ingeniería social.

«Los grupos de delitos cibernéticos, los actores de amenazas de los Estados-nación y otros adversarios están explorando y probando diferentes tecnologías de inteligencia artificial a medida que surgen, en un intento de comprender el valor potencial para sus operaciones y los controles de seguridad que pueden necesitar eludir», dice Microsoft en un blog. publicar hoy .

Se ha descubierto que el grupo Strontium, vinculado a la inteligencia militar rusa, utiliza LLM «para comprender los protocolos de comunicación por satélite, las tecnologías de imágenes de radar y parámetros técnicos específicos». El grupo de hackers, conocido también como APT28 o Fancy Bear, ha estado activo durante la guerra entre Rusia y Ucrania y anteriormente estuvo involucrado en atacar la campaña presidencial de Hillary Clinton en 2016.

El grupo también ha estado utilizando LLM para ayudar con «tareas básicas de secuencias de comandos, incluida la manipulación de archivos, la selección de datos, las expresiones regulares y el multiprocesamiento, para potencialmente automatizar u optimizar las operaciones técnicas», según Microsoft.

Un grupo de hackers norcoreano, conocido como Thallium, ha estado utilizando LLM para investigar vulnerabilidades informadas públicamente y apuntar a organizaciones, para ayudar en tareas básicas de programación y para redactar contenidos para campañas de phishing. Microsoft dice que el grupo iraní conocido como Curium también ha estado utilizando LLM para generar correos electrónicos de phishing e incluso códigos para evitar la detección por parte de aplicaciones antivirus. Los piratas informáticos afiliados al estado chino también están utilizando los LLM para investigaciones, secuencias de comandos, traducciones y para perfeccionar sus herramientas existentes.

Ha habido temores sobre el uso de la IA en los ciberataques, particularmente porque han surgido herramientas de IA como WormGPT y FraudGPT para ayudar en la creación de correos electrónicos maliciosos y herramientas de descifrado. Un alto funcionario de la Agencia de Seguridad Nacional también advirtió el mes pasado que los piratas informáticos están utilizando inteligencia artificial para hacer que sus correos electrónicos de phishing parezcan más convincentes.

Microsoft y OpenAI aún no han detectado ningún «ataque significativo» utilizando LLM, pero las empresas han estado cerrando todas las cuentas y activos asociados con estos grupos de piratas informáticos. «Al mismo tiempo, creemos que es importante publicar esta investigación para exponer los movimientos incrementales en las etapas iniciales que observamos que intentan realizar actores de amenazas conocidos, y compartir información sobre cómo los estamos bloqueando y contrarrestando con la comunidad de defensores», dice Microsoft.

Si bien el uso de la IA en los ciberataques parece limitado en este momento, Microsoft advierte sobre casos de uso futuros como la suplantación de voz. “El fraude impulsado por la IA es otra preocupación fundamental. La síntesis de voz es un ejemplo de esto, donde una muestra de voz de tres segundos puede entrenar a un modelo para que suene como cualquier persona”, dice Microsoft. «Incluso algo tan inofensivo como el saludo de su correo de voz puede usarse para obtener una muestra suficiente».

Naturalmente, la solución de Microsoft utiliza IA para responder a los ataques de IA. «La IA puede ayudar a los atacantes a aportar más sofisticación a sus ataques y tienen recursos para utilizarlos», afirma Homa Hayatyfar, director principal de análisis de detección de Microsoft. «Hemos visto esto con los más de 300 actores de amenazas que Microsoft rastrea y utilizamos IA para proteger, detectar y responder».

Microsoft está creando un Security Copilot , un nuevo asistente de inteligencia artificial diseñado para que los profesionales de la ciberseguridad identifiquen infracciones y comprendan mejor la enorme cantidad de señales y datos que se generan a través de las herramientas de ciberseguridad a diario. El gigante del software también está revisando la seguridad de su software luego de importantes ataques a la nube de Azure e incluso de piratas informáticos rusos que espiaron a los ejecutivos de Microsoft .

Scroll al inicio