Un laboratorio de IA denuncia ataques de espionaje cibernético respaldados por China
El laboratorio estadounidense Anthropic reveló la primera campaña de espionaje cibernético orquestada por IA, donde un grupo de hackers respaldado por el gobierno chino utilizó su herramienta Claude para automatizar ataques.
17/11/2025 | 23:40Redacción Cadena 3
Durante el pasado fin de semana, el laboratorio de inteligencia artificial estadounidense Anthropic publicó un informe sobre su descubrimiento de la "primera campaña de espionaje cibernético orquestada por IA". Según el informe, un grupo de hackers respaldado por el gobierno chino utilizó la herramienta Claude de Anthropic para automatizar gran parte de sus esfuerzos por robar información sensible de alrededor de 30 organizaciones.
El informe ha generado un gran interés en la comunidad de ciberseguridad. Expertos respetados han advertido que los ataques cibernéticos automatizados por IA son el futuro, instando a los defensores cibernéticos a invertir ahora antes de la inminente oleada de ataques. Sin embargo, muchos en la industria de la ciberseguridad han expresado su escepticismo respecto a las afirmaciones de Anthropic, señalando que el papel real de la IA en los ataques no está claro.
Lo que dice Anthropic
Los críticos han señalado lo que consideran una falta de detalles en el informe, lo que obliga a hacer conjeturas sobre lo que pudo haber sucedido. Según parece, los hackers construyeron un marco para llevar a cabo campañas de intrusión cibernética de manera mayormente automática. El trabajo pesado fue realizado por el agente de codificación Claude Code de Anthropic, diseñado para automatizar tareas de programación, pero que también puede ser utilizado para automatizar otras actividades informáticas.
Claude Code cuenta con medidas de seguridad integradas para evitar causar daño. Por ejemplo, al solicitarle que escriba un programa para realizar actividades de hacking, se negó rotundamente. Sin embargo, como se ha observado desde los primeros días de ChatGPT, una forma de eludir las restricciones en los sistemas de IA es engañarlos para que participen en juegos de rol.
Anthropic informa que esto fue lo que hicieron los hackers, engañando a Claude Code para que creyera que estaba ayudando a hackers autorizados a probar la calidad de las defensas de un sistema.
Detalles faltantes
La información publicada por Anthropic carece de los detalles finos que suelen incluir los mejores informes de investigación de incidentes cibernéticos. Entre estos se encuentran los llamados indicadores de compromiso (IoCs). Cuando los investigadores publican un informe sobre una intrusión cibernética, suelen incluir pruebas concretas que otros defensores cibernéticos pueden utilizar para buscar signos del mismo ataque.
Desafortunadamente, el informe de Anthropic no incluye tales indicadores, lo que impide a los defensores determinar si también han sido víctimas de esta campaña de hacking impulsada por IA.
Un éxito limitado
Otro motivo por el cual muchos han quedado decepcionados con las afirmaciones de Anthropic es que, a primera vista y sin detalles concretos, no son especialmente sorprendentes. Claude Code es ampliamente utilizado por muchos programadores porque les ayuda a ser más productivos. Aunque no son exactamente lo mismo que las tareas de programación, muchas de las tareas comunes realizadas durante una intrusión cibernética son lo suficientemente similares a las tareas de programación como para que Claude Code pueda llevarlas a cabo también.
Un motivo final para ser cauteloso con las afirmaciones de Anthropic es que sugieren que los atacantes pudieron hacer que Claude Code realizara estas tareas de manera más confiable de lo que normalmente lo hace. La IA generativa puede realizar hazañas maravillosas, pero lograr que sistemas como ChatGPT o Claude Code lo hagan de manera confiable sigue siendo un gran desafío.
De hecho, el informe de Anthropic señala que Claude Code frecuentemente engañó a los atacantes, pretendiendo haber realizado una tarea con éxito incluso cuando no lo había hecho. Este es un caso clásico de alucinación de IA. Quizás esto explique la baja tasa de éxito del ataque: el propio informe de Anthropic indica que, aunque alrededor de 30 organizaciones fueron atacadas, los hackers solo tuvieron éxito contra unas pocas.
¿Qué significa esto para el futuro de la ciberseguridad y la IA?
Independientemente de los detalles de esta campaña particular, los ataques cibernéticos habilitados por IA están aquí para quedarse. Incluso si se sostiene que el hacking habilitado por IA actual es "lame", sería imprudente que los defensores cibernéticos asumieran que seguirá siendo así. El informe de Anthropic es un recordatorio oportuno para que las organizaciones inviertan en ciberseguridad. Aquellos que no lo hagan pueden enfrentar un futuro en el que sus secretos sean robados o sus operaciones interrumpidas por agentes de IA autónomos.
Lectura rápida
¿Qué descubrió Anthropic?
Descubrió una campaña de espionaje cibernético orquestada por IA, donde un grupo respaldado por el gobierno chino utilizó su herramienta Claude para automatizar ataques.
¿Cuántas organizaciones fueron atacadas?
Alrededor de 30 organizaciones fueron atacadas, pero los hackers solo tuvieron éxito contra unas pocas.
¿Qué falta en el informe de Anthropic?
Faltan detalles cruciales como los indicadores de compromiso, que ayudarían a otros a identificar ataques similares.
¿Qué se sugiere sobre el futuro de la ciberseguridad?
Los ataques cibernéticos habilitados por IA son una amenaza creciente, y las organizaciones deben invertir en ciberseguridad.
¿Qué es Claude Code?
Es un agente de codificación de Anthropic diseñado para automatizar tareas de programación y otras actividades informáticas.





