El choque entre Anthropic y el Pentágono: implicaciones de la inteligencia artificial
La disputa entre Anthropic y el Pentágono sobre el uso de IA en armas autónomas plantea cuestiones críticas sobre la seguridad nacional y el control corporativo. La decisión podría cambiar el futuro de la tecnología militar.
28/02/2026 | 03:54Redacción Cadena 3
En las últimas semanas, el enfrentamiento entre el CEO de Anthropic, Dario Amodei, y el Secretario de Defensa, Pete Hegseth, ha generado un intenso debate sobre el uso de la inteligencia artificial (IA) en el ámbito militar. Anthropic se opone a que sus modelos de IA sean utilizados para la vigilancia masiva de ciudadanos estadounidenses o para armas autónomas que actúen sin intervención humana.
El conflicto se intensificó cuando el Secretario Hegseth argumentó que el Departamento de Defensa (DoD) debería poder utilizar la tecnología de Anthropic para cualquier propósito legal. Según Hegseth, esta postura es esencial para garantizar que el ejército no se vea limitado por las políticas internas de la empresa.
Amodei, en respuesta, dejó claro que Anthropic no cedería a las presiones del Pentágono, a pesar de las amenazas de que su empresa podría ser designada como un riesgo en la cadena de suministro. Este contexto plantea preguntas cruciales sobre quién debería tener el control sobre sistemas de IA tan poderosos: las empresas que los desarrollan o el gobierno que desea implementarlos.
Desde la perspectiva de Anthropic, la preocupación radica en cómo se pueden mantener las salvaguardias necesarias cuando su tecnología es utilizada por el ejército. La IA puede facilitar la vigilancia legal de los ciudadanos, permitiendo la detección automatizada de patrones y el análisis de comportamiento continuo, lo que podría derivar en un uso indebido de la tecnología.
Por otro lado, el Pentágono sostiene que su interés no radica en realizar vigilancia masiva o en implementar armas autónomas, sino en tener la libertad de utilizar la tecnología de Anthropic para cualquier fin que consideren necesario. Sean Parnell, portavoz del Pentágono, enfatizó que la solicitud es simple y de sentido común: permitir que el departamento use los modelos de Anthropic para todos los propósitos legales.
El ultimátum del Pentágono exige que Anthropic tome una decisión antes de las 5:01 p.m. del viernes. De no hacerlo, el DoD podría terminar su asociación con la empresa, lo que podría tener graves repercusiones tanto para Anthropic como para la seguridad nacional.
La situación es delicada, ya que el Departamento de Defensa podría tardar entre seis y doce meses en encontrar un reemplazo adecuado si Anthropic es descartada. Esto podría dejar al Pentágono vulnerable durante un periodo crítico, mientras que otras empresas de IA, como xAI, se preparan para llenar el vacío.
El desenlace de esta disputa no solo afectará a Anthropic y al Pentágono, sino que también sentará un precedente sobre el uso de la IA en el ámbito militar y la regulación de su desarrollo y aplicación.
Lectura rápida
¿Qué está en juego en la disputa entre Anthropic y el Pentágono?
Se debate quién controla el uso de la IA: las empresas que la desarrollan o el gobierno que la utiliza.
¿Cuál es la postura de Anthropic?
Anthropic se opone a que sus modelos de IA sean usados para vigilancia masiva o armas autónomas.
¿Qué quiere el Pentágono?
El Pentágono busca usar la tecnología de Anthropic para cualquier fin legal sin restricciones impuestas por la empresa.
¿Qué consecuencias podría tener la decisión de Anthropic?
Si Anthropic es designada como riesgo en la cadena de suministro, podría enfrentar un futuro incierto y afectar la seguridad nacional.
¿Cuál es el plazo que tiene Anthropic?
El Pentágono ha dado un ultimátum hasta las 5:01 p.m. del viernes para que Anthropic tome una decisión.





