viernes, febrero 13, 2026

Google informa que piratas informáticos respaldados por el estado utilizan Gemini AI para reconocimiento y soporte de ataques

TecnologíaGoogle informa que piratas informáticos respaldados por el estado utilizan Gemini AI para reconocimiento y soporte de ataques

Google dijo el jueves que observó al actor de amenazas vinculado a Corea del Norte conocido como UNC2970 utilizando su modelo de inteligencia artificial (IA) generativa Gemini para realizar reconocimientos de sus objetivos, mientras varios grupos de hackers continúan utilizando la herramienta como arma para acelerar varias fases del ciclo de vida del ciberataque, permitiendo operaciones de información e incluso realizando ataques de extracción de modelos.

«El grupo utilizó Gemini para sintetizar OSINT y perfilar objetivos de alto valor para respaldar la planificación y el reconocimiento de campañas», dijo Google Threat Intelligence Group (GTIG) en un informe compartido con The Hacker News. «El perfil objetivo de este actor incluía la búsqueda de información sobre las principales empresas de ciberseguridad y defensa y el mapeo de funciones laborales técnicas específicas e información salarial».

El equipo de inteligencia de amenazas del gigante tecnológico caracterizó esta actividad como una confusión de los límites entre lo que constituye una investigación profesional de rutina y un reconocimiento malicioso, lo que permitió al actor respaldado por el estado crear personajes de phishing personalizados e identificar objetivos fáciles para el compromiso inicial.

UNC2970 es el apodo asignado a un grupo de hackers norcoreano que se superpone con un grupo rastreado como Lazarus Group, Diamond Sleet y Hidden Cobra. Es mejor conocido por orquestar una campaña de larga duración con el nombre en código Operación Dream Job para atacar los sectores aeroespacial, de defensa y energético con malware con el pretexto de acercarse a las víctimas con el pretexto de ofertas de trabajo.

GTIG dijo que UNC2970 se ha centrado «consistentemente» en la defensa apuntando y haciéndose pasar por reclutadores corporativos en sus campañas, y el perfil del objetivo incluye búsquedas de «información sobre las principales empresas de ciberseguridad y defensa y mapeo de funciones laborales técnicas específicas e información salarial».

UNC2970 está lejos de ser el único actor de amenazas que ha hecho un mal uso de Gemini para aumentar sus capacidades y pasar del reconocimiento inicial a la focalización activa a un ritmo más rápido. Algunos de los otros equipos de piratería que han integrado la herramienta en sus flujos de trabajo son los siguientes:

  • UNC6418 (Sin atribuir), para llevar a cabo una recopilación de inteligencia específica, buscando específicamente credenciales de cuentas y direcciones de correo electrónico confidenciales.
  • Temp.HEX o Mustang Panda (China), para compilar un expediente sobre personas específicas, incluidos objetivos en Pakistán, y recopilar datos operativos y estructurales sobre organizaciones separatistas en varios países.
  • APT31 o Panda del Juicio (China), para automatizar el análisis de vulnerabilidades y generar planes de prueba específicos afirmando ser un investigador de seguridad.
  • APT41 (China), para extraer explicaciones de las páginas README.md de la herramienta de código abierto, así como para solucionar problemas y depurar códigos de explotación.
  • UNC795 (China), para solucionar problemas de su código, realizar investigaciones y desarrollar shells web y escáneres para servidores web PHP.
  • APT42 (Irán), para facilitar el reconocimiento y la ingeniería social dirigida mediante la creación de personajes que induzcan la participación de los objetivos, así como desarrollar un raspador de Google Maps basado en Python, desarrollar un sistema de administración de tarjetas SIM en Rust e investigar el uso de una prueba de concepto (PoC) para una falla de WinRAR (CVE-2025-8088).

Google también dijo que detectó un malware llamado HONESTCUE que aprovecha la API de Gemini para subcontratar la generación de funcionalidad para la siguiente etapa, junto con un kit de phishing generado por IA con nombre en código COINBAIT que se construye utilizando Lovable AI y se hace pasar por un intercambio de criptomonedas para la recolección de credenciales. Algunos aspectos de la actividad relacionada con COINBAIT se han atribuido a un grupo de amenazas con motivación financiera denominado UNC5356.

«HONESTCUE es un marco de descarga y lanzamiento que envía un mensaje a través de la API de Google Gemini y recibe el código fuente C# como respuesta», decía. «Sin embargo, en lugar de aprovechar un LLM para actualizarse, HONESTCUE llama a la API Gemini para generar código que opera la funcionalidad de la ‘etapa dos’, que descarga y ejecuta otra pieza de malware».

La etapa secundaria sin archivos de HONESTCUE luego toma el código fuente C# generado recibido de la API de Gemini y utiliza el marco legítimo .NET CSharpCodeProvider para compilar y ejecutar la carga útil directamente en la memoria, sin dejar así artefactos en el disco.

Google también ha llamado la atención sobre una ola reciente de campañas ClickFix que aprovechan la función de intercambio público de los servicios de inteligencia artificial generativa para albergar instrucciones de apariencia realista para solucionar un problema informático común y, en última instancia, entregar malware para robar información. La actividad fue denunciada en diciembre de 2025 por Huntress.

Por último, la compañía dijo que identificó e interrumpió ataques de extracción de modelos que tienen como objetivo consultar sistemáticamente un modelo de aprendizaje automático patentado para extraer información y construir un modelo sustituto que refleje el comportamiento del objetivo. En un ataque a gran escala de este tipo, Gemini fue blanco de más de 100.000 mensajes que planteaban una serie de preguntas destinadas a replicar la capacidad de razonamiento del modelo en una amplia gama de tareas en idiomas distintos del inglés.

El mes pasado, Praetorian ideó un ataque de extracción PoC en el que un modelo de réplica logró una tasa de precisión del 80,1% simplemente enviando una serie de 1000 consultas a la API de la víctima y registrando los resultados y entrenándolo durante 20 épocas.

«Muchas organizaciones asumen que mantener los pesos de los modelos en privado es protección suficiente», dijo la investigadora de seguridad Farida Shafik. «Pero esto crea una falsa sensación de seguridad. En realidad, el comportamiento es el modelo. Cada par de consulta-respuesta es un ejemplo de entrenamiento para una réplica. El comportamiento del modelo queda expuesto a través de cada respuesta de API».

Artículos más populares