Conflictos en el uso de IA
04/03/2026 | 15:55
Redacción Cadena 3
La reciente disputa entre Anthropic y el Departamento de Defensa de EE.UU. ha dejado a la empresa en una situación complicada. A pesar de que sus modelos están siendo utilizados activamente en el conflicto entre EE.UU. e Irán, muchos de sus clientes en la industria de defensa están optando por desvincularse de sus servicios.
La confusión se origina en las restricciones contradictorias impuestas por el gobierno estadounidense. El presidente Donald Trump ordenó a las agencias civiles que interrumpieran el uso de productos de Anthropic, pero la empresa recibió un plazo de seis meses para reducir sus operaciones con el Departamento de Defensa. Justo un día después, EE.UU. e Israel lanzaron un ataque sorpresivo sobre Teherán, lo que inició un conflicto que complicó la ejecución de la orden de Trump.
Como resultado, mientras EE.UU. continúa sus ataques aéreos en Irán, los modelos de Anthropic están siendo empleados para decisiones de ataque. Según un artículo de The Washington Post, los sistemas de Anthropic están siendo utilizados junto con el sistema Maven de Palantir. A medida que los funcionarios del Pentágono planificaban los ataques, los sistemas "sugerían cientos de objetivos, emitían coordenadas de ubicación precisas y priorizaban esos objetivos según su importancia".
Sin embargo, muchas empresas en la industria de defensa han comenzado a reemplazar los modelos de Anthropic por los de la competencia. Lockheed Martin y otros contratistas de defensa comenzaron a realizar cambios esta semana, de acuerdo con un informe de Reuters. Varios subcontratistas también se encuentran en una situación similar; un socio gerente de J2 Ventures mencionó que diez de sus empresas de cartera han "reducido su uso de Claude para casos de uso en defensa y están en proceso activo de reemplazar el servicio por otro".
La mayor incógnita es si el secretario de defensa, Pete Hegseth, cumplirá con la designación de riesgo de cadena de suministro, lo que probablemente resultaría en un intenso caso legal. Mientras tanto, uno de los principales laboratorios de IA se está desvinculando rápidamente de la tecnología militar, incluso mientras se utiliza en una zona de guerra activa.
¿Qué está haciendo el ejército de EE.UU.?
Está utilizando los modelos de Anthropic en decisiones de ataque durante el conflicto con Irán.
¿Quién es el responsable de la situación actual?
La disputa entre Anthropic y el Departamento de Defensa, además de las órdenes de Trump.
¿Cuándo comenzaron los problemas?
Los problemas surgieron tras la orden de Trump y el ataque a Teherán.
¿Dónde se están utilizando estos modelos?
En el contexto de ataques aéreos en Irán, junto con sistemas de Palantir.
¿Por qué los clientes están abandonando a Anthropic?
Por las restricciones del gobierno y la búsqueda de alternativas más seguras.
Te puede Interesar
Inversiones récord en tecnología
En febrero, las startups recaudaron un récord de $189 mil millones en capital de riesgo, con un 90% destinado a empresas de inteligencia artificial como OpenAI y Anthropic.
Debate sobre la ética en la IA
OpenAI se enfrenta a críticas por su reciente acuerdo con el Pentágono, mientras que la industria de IA debate sobre su rol y responsabilidades en la seguridad nacional.
Mercado de apuestas en EE. UU.
Se realizaron apuestas por $529 millones en Polymarket, relacionadas con un posible ataque de EE. UU. a Irán. Seis cuentas nuevas obtuvieron $1 millón al predecir correctamente el ataque antes del 28 de febrero.
Acuerdo de OpenAI con el Pentágono
El CEO de OpenAI, Sam Altman, admitió que el acuerdo con el Departamento de Defensa fue "definitivamente apresurado". La firma se compromete a salvaguardas en el uso de su tecnología.