Microsoft pide a un juez que frene acciones del Pentágono contra Anthropic

Conflicto legal en EE.UU.

Microsoft solicita a un juez frenar acciones del Pentágono contra Anthropic

11/03/2026 | 11:55

Microsoft apoya a Anthropic y pide a un tribunal que detenga la decisión del Pentágono que considera a la empresa un riesgo para la seguridad nacional. La disputa se centra en el uso de su IA, Claude.

Redacción Cadena 3

SAN FRANCISCO — La empresa Microsoft ha manifestado su apoyo a Anthropic al solicitar a un tribunal federal que impida la designación del gobierno del presidente Donald Trump, que catalogó a la firma de inteligencia artificial como un riesgo para la cadena de suministro.

En un documento presentado ante la corte, Microsoft cuestiona la medida adoptada la semana pasada por el secretario de Defensa, Pete Hegseth, quien excluyó a Anthropic de participar en trabajos militares, al considerar sus productos de inteligencia artificial como una amenaza para la seguridad nacional.

El Pentágono tomó esta decisión después de una disputa pública, derivada de la negativa de Anthropic a permitir el uso militar ilimitado de su modelo de IA, Claude. Trump también indicó que había instruido a todas las agencias federales para que dejaran de utilizar Claude.

En la presentación judicial, Microsoft argumenta que "utilizar una designación de riesgo para la cadena de suministro para resolver una disputa contractual podría tener graves repercusiones económicas que no benefician al interés público". Este documento fue presentado el martes en la corte federal de San Francisco, donde Anthropic había demandado al gobierno de Trump el lunes.

La acción del Pentágono "obliga a los contratistas del gobierno a adherirse a directrices vagas y mal definidas que nunca se habían aplicado de manera pública contra una empresa estadounidense", se señala en el escrito legal de Microsoft.

En el documento, se solicita que un juez ordene el levantamiento temporal de la designación para permitir un "debate más razonado" sobre el asunto.

El Pentágono se ha negado a hacer comentarios, afirmando que no se pronunciará sobre temas en litigio. Microsoft también expresó su acuerdo con las dos líneas éticas planteadas por Anthropic, que fueron motivo de tensión en las negociaciones contractuales.

"Microsoft sostiene que la inteligencia artificial estadounidense no debe ser utilizada para llevar a cabo vigilancia masiva dentro del país ni para iniciar guerras sin control humano", declaró la empresa. "Esta postura es consistente con la legislación y cuenta con un amplio respaldo en la sociedad estadounidense, como lo reconoce el gobierno".

La presentación judicial de Microsoft se suma a otras apoyando a Anthropic, incluyendo una de un grupo de desarrolladores de IA de Google y OpenAI, así como otra de varias organizaciones como el Cato Institute y la Electronic Frontier Foundation.

___

Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.

Lectura rápida

¿Qué hizo Microsoft?
Solicitó a un tribunal que bloquee la designación del Pentágono que considera a Anthropic un riesgo para la cadena de suministro.

¿Quién es el secretario de Defensa?
El secretario de Defensa es Pete Hegseth, quien tomó la decisión de excluir a Anthropic de trabajos militares.

¿Por qué se tomó esta decisión?
Se basa en la negativa de Anthropic a permitir el uso militar sin restricciones de su IA, Claude.

¿Qué argumenta Microsoft?
Que la designación podría tener graves consecuencias económicas y que es injusta para la empresa.

¿Qué más apoya Microsoft?
Apoya las líneas éticas de Anthropic sobre el uso de IA en vigilancia y conflictos bélicos.

[Fuente: AP]

Te puede Interesar

Tensiones en el uso de IA militar

El subsecretario de Defensa, Emil Michael, reveló tensiones con Anthropic sobre el uso de su IA en sistemas de armas autónomas, vitales para la defensa antimisiles de EE.UU.

Conflicto entre tecnología y defensa

El gobierno de Estados Unidos ha ordenado a todas las agencias federales cesar el uso de la tecnología de IA de Anthropic, lo que marca un giro significativo en la relación entre la empresa y el gobierno.

Controversia por uso militar de IA

La empresa de inteligencia artificial Anthropic demanda al gobierno de Trump para anular la designación del Pentágono que la califica como un riesgo para la cadena de suministro por su rechazo al uso militar de su tecnología.

Pruebas de seguridad en el espacio aéreo

El Pentágono y la FAA llevarán a cabo ensayos de un láser antidrones en Nuevo México, tras incidentes de cierre del espacio aéreo en Texas. Las pruebas se realizarán el fin de semana en el Campo de Misiles White Sands.

© Copyright 2026 Cadena 3 Argentina