La compañía de inteligencia artificial (AI) Anthrope ha revelado que los actores de amenaza desconocidos aprovecharon su Claude Chatbot para una operación de «influencia como servicio» para comprometerse con cuentas auténticas en Facebook y X.
Se dice que la actividad sofisticada, marcada como motivada financieramente, ha utilizado su herramienta de IA para orquestar a 100 personas distintas en las dos plataformas de redes sociales, creando una red de «cuentas políticamente alineadas» que se involucraban con «10 de miles de miles» de cuentas auténticas.
La operación ahora descartada, dijeron investigadores antrópicos, priorizaron la persistencia y la longevidad sobre la vitalidad y buscó amplificar las perspectivas políticas moderadas que apoyaron o socavaron los intereses europeos, iraníes, iraníes, árabes árabes (EAU) y kenianos.
Estos incluyeron promover a los EAU como un entorno empresarial superior mientras criticaban los marcos regulatorios europeos, centrándose en las narrativas de seguridad energética para el público europeo y las narrativas de identidad cultural para el público iraní.
Los esfuerzos también empujaron narraciones que apoyan figuras albanesas y criticaron las figuras de la oposición en un país europeo no especificado, así como las iniciativas de desarrollo abogadas y las figuras políticas en Kenia. Estas operaciones de influencia son consistentes con las campañas afiliadas al estado, aunque exactamente quién estaba detrás de ellas sigue desconocida, agregó.
«Lo que es especialmente novedoso es que esta operación usó Claude no solo para la generación de contenido, sino también para decidir cuándo las cuentas de bot de redes sociales comentarían, o volverían a compartir publicaciones de los auténticos usuarios de las redes sociales», señaló la compañía.
«Claude se usó como un orquestador que decide qué acciones deberían tomar las cuentas de botes sociales en función de personas con motivación política».
A pesar del uso de Claude como un tomador de decisiones de compromiso táctico, el chatbot se utilizó para generar respuestas apropiadas alineadas políticamente en la voz y el idioma nativo de la persona, y crear indicaciones para dos herramientas populares de generación de imágenes.
Se cree que la operación es el trabajo de un servicio comercial que atiende a diferentes clientes en varios países. Se han identificado al menos cuatro campañas distintas utilizando este marco programático.
«La operación implementó un enfoque altamente estructurado basado en JSON para la gestión de la persona, lo que le permite mantener la continuidad en todas las plataformas y establecer patrones de participación consistentes que imitan el comportamiento humano auténtico», dijeron los investigadores Ken Lebedev, Alex Moix y Jacob Klein.
«Al utilizar este marco programático, los operadores podrían estandarizar y escalar eficientemente sus esfuerzos y permitir el seguimiento y actualización sistemática de los atributos de la persona, el historial de compromiso y los temas narrativos en múltiples cuentas simultáneamente».

Otro aspecto interesante de la campaña fue que «estratégicamente» instruyó a las cuentas automatizadas que respondieran con humor y sarcasmo a las acusaciones de otras cuentas de que pueden ser bots.
Anthrope dijo que la operación destaca la necesidad de nuevos marcos para evaluar las operaciones de influencia que giran en torno a la construcción de relaciones y la integración de la comunidad. También advirtió que actividades maliciosas similares podrían volverse comunes en los próximos años, ya que la IA reduce la barrera aún más para realizar campañas de influencia.
En otros lugares, la compañía señaló que prohibió a un actor de amenaza sofisticado que usaba sus modelos para raspar contraseñas filtradas y nombres de usuario asociados con cámaras de seguridad y idear métodos para los objetivos orientados a Internet de fuerza bruta utilizando las credenciales robadas.
El actor de amenazas empleó además a Claude para procesar publicaciones de los registros de robadores de información publicados en Telegram, crear scripts para raspar las URL objetivo de los sitios web y mejorar sus propios sistemas para una mejor funcionalidad de búsqueda.
A continuación se enumeran otros dos casos de mal uso vistos por antrópico en marzo de 2025.
- Una campaña de fraude de reclutamiento que aprovechó a Claude para mejorar el contenido de las estafas dirigidas a los solicitantes de empleo en los países de Europa del Este
- Un actor novato que aprovechó a Claude para mejorar sus capacidades técnicas para desarrollar malware avanzado más allá de su nivel de habilidad con las capacidades para escanear la web oscura y generar cargas útiles maliciosas indetectables que pueden evadir el control de seguridad y mantener el acceso persistente a largo plazo a sistemas comprometidos comprometidos.
«Este caso ilustra cómo la IA puede aplanar potencialmente la curva de aprendizaje para los actores maliciosos, lo que permite a las personas con conocimiento técnico limitado desarrollar herramientas sofisticadas y potencialmente acelerar su progresión de actividades de bajo nivel a esfuerzos cibercriminales más graves», dijo Anthrope.