Conflicto entre el Pentágono y Anthropic por uso de IA en armamento autónomo
El subsecretario de Defensa, Emil Michael, reveló tensiones con Anthropic sobre el uso de su IA en sistemas de armas autónomas, vitales para la defensa antimisiles de EE.UU.
06/03/2026 | 23:38Redacción Cadena 3
Un alto funcionario del Pentágono reveló que la controversia entre Anthropic y el gobierno de Estados Unidos respecto al uso de su tecnología de inteligencia artificial en armamento autónomo surgió tras un debate sobre su posible aplicación en el programa de defensa antimisiles Golden Dome, que busca desplegar armamento estadounidense en el espacio.
El subsecretario de Defensa, Emil Michael, director de tecnología del Pentágono, expresó que las restricciones éticas impuestas por la empresa de IA sobre el uso de su chatbot Claude representaban un obstáculo irracional. Esto ocurre en un contexto en el que las fuerzas armadas de Estados Unidos buscan aumentar la autonomía de drones armados, vehículos submarinos y otras máquinas para mantenerse competitivos frente a rivales como China, que podría estar desarrollando capacidades similares.
"Necesito un socio confiable y constante que me proporcione soluciones autónomas, ya que esto será una realidad en el futuro, y estamos comenzando a ver versiones iniciales de ello", manifestó Michael en un podcast reciente. "Requiero a alguien que no se muestre indeciso en medio de este proceso".
Sus declaraciones se produjeron luego de que el Pentágono designara formalmente a Anthropic —con sede en San Francisco— como un riesgo para la cadena de suministro, lo que ha puesto en jaque su colaboración en defensa debido a una normativa que busca proteger los sistemas de seguridad nacional de posibles adversarios extranjeros.
Anthropic ha anunciado su intención de presentar una demanda contra esta designación, que afecta sus alianzas comerciales con otros contratistas militares. El presidente Donald Trump también ordenó a las agencias federales que suspendan el uso de Claude de inmediato, aunque otorgó un plazo de seis meses al Pentágono para descontinuar gradualmente su uso, dado que está profundamente integrado en sistemas militares secretos, incluidos aquellos utilizados en la guerra de Irán.
La empresa argumentó que su objetivo es restringir el uso de su tecnología en dos áreas clave: la vigilancia masiva de ciudadanos estadounidenses y el desarrollo de armas totalmente autónomas. Michael, exejecutivo de Uber, compartió su experiencia sobre meses de negociaciones con el director general de Anthropic, Dario Amodei, durante una charla en un podcast con otros capitalistas de riesgo de Silicon Valley.
En el podcast, Michael criticó a Amodei, sugiriendo que "tiene un complejo de Dios" y que su intención es controlar personalmente las fuerzas armadas. Sin embargo, también enmarcó la disputa dentro de un cambio más amplio en la postura militar hacia el uso de IA.
El subsecretario explicó que las fuerzas armadas están desarrollando procedimientos para implementar diferentes niveles de autonomía en la guerra, dependiendo del riesgo en cada situación. "Esto es parte del debate que sostuve con Anthropic, y es que necesitamos IA para iniciativas como Golden Dome", comentó, describiendo un escenario hipotético en el que EE.UU. tendría solo 90 segundos para responder a un misil hipersónico chino. Trump ha impulsado el desarrollo de este programa.
Michael describió que un operador humano podría no ser capaz de identificar visualmente un objetivo, mientras que un contraataque autónomo presentaría un bajo riesgo "porque está en el espacio, y solo intentas neutralizar algo que intenta golpearte". En otro ejemplo, mencionó la posibilidad de utilizar un láser autónomo para derribar drones en una base militar.
En respuesta a las declaraciones del podcast, Anthropic remitió a una declaración previa de Amodei, quien afirmó que "Anthropic comprende que el Departamento de Guerra, no las empresas privadas, toma las decisiones militares. Nunca hemos planteado objeciones a operaciones militares concretas ni intentado limitar el uso de nuestra tecnología de manera ad hoc".
Michael, quien asumió su cargo en mayo pasado y se hizo cargo de la "cartera de IA" de las fuerzas armadas en agosto, comenzó a revisar los contratos de Anthropic, algunos de los cuales datan de la administración de Biden. Cuestionó las condiciones de uso de la empresa, que consideró demasiado restrictivas.
"Necesito que las condiciones del servicio sean razonables en relación con nuestras misiones", afirmó. "Así que iniciamos estas negociaciones. Requirió tres meses, y tuve que presentarles escenarios, como el del misil hipersónico chino. Ellos respondían: 'Está bien, te daremos una excepción para eso'. Pero yo pensaba: las excepciones no funcionan. No puedo predecir todas las aplicaciones de la IA en los próximos 20 años".
Fue en este contexto que el Pentágono comenzó a exigir que Anthropic y otras empresas de IA permitieran "todo uso lícito" de su tecnología, lo que fue rechazado por la compañía, que argumentó que los sistemas de IA actuales "simplemente no son lo suficientemente confiables como para impulsar armas totalmente autónomas".
Mientras tanto, competidores como Google, OpenAI y xAI de Elon Musk aceptaron las condiciones del Pentágono, aunque algunos aún deben adaptar su infraestructura para el trabajo militar confidencial. Otro punto de fricción para Anthropic fue la prohibición de la vigilancia masiva de ciudadanos estadounidenses.
"No querían que recopiláramos en bloque información pública sobre personas que utilizan su sistema de IA", explicó Michael, quien describió las negociaciones como "interminables".
Anthropic ha impugnado partes de la narrativa de Michael sobre las conversaciones, subrayando que las protecciones que buscaba eran limitadas y no se basaban en usos existentes de Claude. Es probable que la próxima etapa de esta disputa se desarrolle en los tribunales.
Lectura rápida
¿Qué conflicto se presenta entre el Pentágono y Anthropic?
El Pentágono y Anthropic están en desacuerdo por el uso de su IA en armamento autónomo, afectando contratos y colaboraciones.
¿Quién es Emil Michael?
Es el subsecretario de Defensa y director de tecnología del Pentágono, quien ha expresado la necesidad de IA en sistemas de defensa.
¿Qué es el programa Golden Dome?
Es un proyecto del Pentágono que busca desplegar armas estadounidenses en el espacio como parte de la defensa antimisiles.
¿Qué restricciones impone Anthropic?
La empresa busca limitar el uso de su tecnología en vigilancia masiva y armamento autónomo, lo que ha generado tensiones con el Pentágono.
¿Qué futuro se vislumbra para esta disputa?
Es probable que el conflicto entre Anthropic y el Pentágono continúe en los tribunales, a medida que ambas partes buscan proteger sus intereses.
[Fuente: AP]





