miércoles, febrero 4, 2026

Antropic interrumpe los ataques cibernéticos con IA automatizando el robo y la extorsión a través de sectores críticos

TecnologíaAntropic interrumpe los ataques cibernéticos con IA automatizando el robo y la extorsión a través de sectores críticos

Anthrope el miércoles reveló que interrumpió una operación sofisticada que armó su chatbot Claude de inteligencia artificial (IA) para llevar a cabo robos a gran escala y extorsión de datos personales en julio de 2025.

«El actor apuntó al menos a 17 organizaciones distintas, incluso en la atención médica, los servicios de emergencia y el gobierno, y las instituciones religiosas», dijo la compañía. «En lugar de cifrar la información robada con ransomware tradicional, el actor amenazó con exponer los datos públicamente para intentar extorsionar a las víctimas a los rescates que a veces excedían los $ 500,000».

«El actor empleó el código Claude en Kali Linux como una plataforma de ataque integral, incrustando instrucciones operativas en un archivo Claude.md que proporcionó un contexto persistente para cada interacción».

Se dice que el actor de amenaza desconocido ha usado la IA en un «grado sin precedentes», utilizando el código Claude, la herramienta de codificación de agente de Anthrope, para automatizar varias fases del ciclo de ataque, incluido el reconocimiento, la recolección de credenciales y la penetración de red.

Los esfuerzos de reconocimiento implicaron escanear miles de puntos finales de VPN a los sistemas susceptibles a los marcadores, utilizándolos para obtener acceso inicial y seguimiento con los pasos de enumeración del usuario y descubrimiento de red para extraer credenciales y configurar la persistencia en los hosts.

Además, el atacante usó el código de Claude para crear versiones a medida de la utilidad de túnel de cincel para evitar los esfuerzos de detección y disfrazar ejecutables maliciosos como herramientas legítimas de Microsoft, una indicación de cómo se están utilizando herramientas de IA para ayudar con el desarrollo de malware con capacidades de evasión de defensa.

La actividad, con nombre en código GTG-2002, es notable por emplear a Claude para tomar «decisiones tácticas y estratégicas» por sí sola y permitirle decidir qué datos deben exfiltrarse de las redes de víctimas y elaborar demandas de extorsión dirigidas al analizar los datos financieros para determinar una cantidad de ransom apropiada que varía de $ 75,000 a $ 500,000 en bitcoin.

El código Claude, según antrópico, también se utilizó para organizar datos robados para fines de monetización, sacando miles de registros individuales, incluidos identificadores personales, direcciones, información financiera y registros médicos de múltiples víctimas. Posteriormente, la herramienta se empleó para crear notas de rescate personalizadas y estrategias de extorsión de varios niveles basadas en el análisis de datos exfiltrados.

«Las herramientas de IA de agente ahora se están utilizando para proporcionar asesoramiento técnico y soporte operativo activo para ataques que de otro modo habrían requerido un equipo de operadores», dijo Anthrope. «Esto hace que la defensa y la aplicación sean cada vez más difíciles, ya que estas herramientas pueden adaptarse a las medidas defensivas, como los sistemas de detección de malware, en tiempo real».

Para mitigar tales amenazas de «pirateo de ambientes» que ocurren en el futuro, la compañía dijo que desarrolló un clasificador personalizado para detectar un comportamiento similar e indicadores técnicos compartidos con «socios clave».

A continuación se enumeran otros usos erróneos documentados de Claude –

  • Uso de Claude por parte de los agentes norcoreanos relacionados con el esquema de trabajadores de TI remoto fraudulento para crear personajes ficticios elaborados con antecedentes profesionales persuasivos e historias de proyectos, evaluaciones técnicas y de codificación durante el proceso de solicitud, y ayudar con su trabajo diario una vez contratado
  • Uso de Claude por un cibercrimen con sede en el Reino Unido, con nombre en código GTG-5004, para desarrollar, comercializar y distribuir varias variantes de ransomware con capacidades de evasión avanzadas, cifrado y mecanismos anti-recuperación, que luego se vendieron en foros de Darknet como temblores, cryptoBb y acumularon otros actores de amenaza por $ 400 a $ 1,200.
  • Uso de Claude por un actor de amenaza china para mejorar las operaciones cibernéticas dirigidas a la infraestructura crítica vietnamita, incluidos los proveedores de telecomunicaciones, las bases de datos gubernamentales y los sistemas de gestión agrícola, en el transcurso de una campaña de 9 meses
  • Uso de Claude por un desarrollador de habla rusa para crear malware con capacidades de evasión avanzada
  • Uso del protocolo de contexto modelo (MCP) y Claude por un actor de amenaza que opera en el XSS (.) Es Foro de delitos cibernéticos con el objetivo de analizar los registros de robadores y construir perfiles de víctimas detallados
  • Uso del código Claude por un actor de habla hispana para mantener y mejorar un servicio web solo por invitación dirigido a validar y revender tarjetas de crédito robadas a escala
  • Uso de Claude como parte de un bot de telegrama que ofrece herramientas de IA multimodales para apoyar las operaciones de estafa romántica, anunciando el chatbot como un «modelo de EQ alto»
  • Uso de Claude por un actor desconocido para lanzar un servicio de identidad sintética operativa que gira entre tres servicios de validación de tarjetas, también conocido como «verificadores de tarjetas»

La compañía también dijo que frustraron los intentos realizados por los actores de amenaza de Corea del Norte vinculados a la campaña de entrevistas contagiosa para crear cuentas en la plataforma para mejorar su conjunto de herramientas de malware, crear señuelos de phishing y generar paquetes de NPM, bloqueándolos efectivamente para emitir cualquier indemnización.

Los estudios de caso se suman a la creciente evidencia de que los sistemas de IA, a pesar de las diversas barandillas horneadas en ellos, están siendo abusados ​​para facilitar esquemas sofisticados a velocidad y a escala.

«Los delincuentes con pocas habilidades técnicas están utilizando AI para llevar a cabo operaciones complejas, como el desarrollo de ransomware, que anteriormente habrían requerido años de capacitación», dijeron Alex Moix, Ken Lebedev y Jacob Klein, llamando la capacidad de AI para reducir las barreras para el cibercrelo.

«Los ciberdelincuentes y los estafadores han incrustado la IA en todas las etapas de sus operaciones. Esto incluye perfilar víctimas, analizar datos robados, robar información de la tarjeta de crédito y crear identidades falsas que permitan que las operaciones de fraude amplíen su alcance a más objetivos potenciales».

Artículos más populares