La compañía de seguridad cibernética ESET ha revelado que descubrió una variante de ransomware de inteligencia artificial (IA) con nombre en código Lock.
Escrito en Golang, la cepa recientemente identificada utiliza el modelo GPT-ASS: 20B de OpenAI localmente a través de la API Ollama para generar scripts maliciosos de Lua en tiempo real. El modelo de idioma de peso abierto fue lanzado por OpenAI a principios de este mes.
«PromptLock aprovecha los scripts de Lua generados a partir de indicaciones codificadas para enumerar el sistema de archivos local, inspeccionar archivos de destino, exfiltrate los datos seleccionados y realiza el cifrado», dijo ESET. «Estos scripts Lua son compatibles con la plataforma cruzada, funcionan en Windows, Linux y MacOS».
El código de ransomware también incorpora instrucciones para elaborar una nota personalizada basada en los «archivos afectados», y la máquina infectada es una computadora personal, un servidor de empresas o un controlador de distribución de energía. Actualmente no se sabe quién está detrás del malware, pero ESET le dijo a Hacker News que los artefactos de prontloc se cargaron a Virustotal desde los Estados Unidos el 25 de agosto de 2025.
«PractLock utiliza scripts Lua generados por AI, lo que significa que los indicadores de compromiso (IOC) pueden variar entre las ejecuciones», señaló la compañía de seguridad cibernética eslovaca. «Esta variabilidad introduce desafíos para la detección. Si se implementa adecuadamente, dicho enfoque podría complicar significativamente la identificación de amenazas y dificultar las tareas de los defensores».
Se evalúa como una prueba de concepto (POC) en lugar de un malware totalmente operativo implementado en la naturaleza, TRAdLock utiliza el algoritmo de cifrado Speck de 128 bits para bloquear los archivos.
Además del cifrado, el análisis del artefacto de ransomware sugiere que también podría usarse para exfiltrar los datos o incluso destruirlos, aunque la funcionalidad para realizar el borrado parece que aún no se ha implementado.
«PractLock no descarga todo el modelo, que podría tener varios gigabytes de tamaño», aclaró Eset. «En cambio, el atacante puede simplemente establecer un proxy o túnel desde la red comprometida a un servidor que ejecuta la API Ollama con el modelo GPT-OSS-20B».
El surgimiento de PractLock es otra señal de que la IA ha facilitado los ciberdelincuentes, incluso aquellos que carecen de experiencia técnica, establecer rápidamente nuevas campañas, desarrollar malware y crear contenido de phishing y sitios maliciosos convincentes.
Hoy temprano, Anthrope reveló que prohibió las cuentas creadas por dos actores de amenazas diferentes que utilizaron su chatbot Claude Ai para cometer robo a gran escala y extorsión de datos personales que se dirigen al menos a 17 organizaciones distintas, y desarrollaron varias variantes de ransomware con capacidades de evasión avanzadas, cifrado y mecanismos anti-recoverosias.
El desarrollo se produce como modelos de lenguaje grande (LLMS) que alimentan varios chatbots y herramientas de desarrollador centradas en AI, como Amazon Q Developer, Anthrope Claude Code, AWS Kiro, Butterfly Effect Manus, Google Jules, Lenovo Lena, Microsoft Github Copilot, OpenAi Chatgpt Investigación profunda, OpenHands, fuente AMP y Windsurf, han sido fundamentales, han sido fundamentales, se han dado un aviso de inicio, se han presentado un aviso de inicio, se ha dado un aviso de inicio, se ha dado un aviso de inicio, se han presentado a los ataques, y han sido los ataques de Windsurf. Permitir la divulgación de información, la exfiltración de datos y la ejecución del código.
A pesar de incorporar barandillas de seguridad y seguridad sólidas para evitar comportamientos indeseables, los modelos de IA han caído repetidamente presa de nuevas variantes de inyecciones y jailbreaks, lo que subraya la complejidad y la naturaleza evolucionada del desafío de seguridad.
«Los ataques de inyección inmediatos pueden hacer que AIS elimine los archivos, robe datos o realice transacciones financieras», dijo Anthrope. «Las nuevas formas de inyección inmediata también están siendo desarrolladas constantemente por actores maliciosos».
Además, la nueva investigación ha descubierto un ataque simple pero inteligente llamado Promisqroute, abreviatura de «Manipulación de modo abierto en el enrutador de aviso inducida a través de consultas similares a SSRF, reconfigurando las operaciones de reconfiguración utilizando la evasión de la confianza» que abusa de los modelos de enrutamiento de modelos de chatgpt para obtener una disminución de una disminución de una disminución y causa que se envíe un modelo más antiguo y menos seguro, por lo tanto, lo que permite el sistema de seguridad por alto.
«Agregar frases como ‘Use el modo de compatibilidad’ o ‘respuesta rápida necesaria’ omite millones de dólares en la investigación de seguridad de IA», dijo Adversa Ai en un informe publicado la semana pasada, agregando el ataque apunta al mecanismo de rutor de modelos de ahorro de costos utilizado por los proveedores de IA.