Acuerdo de OpenAI con el Pentágono
01/03/2026 | 23:53
Redacción Cadena 3
OpenAI compartió más detalles sobre su reciente acuerdo con el Pentágono, después de que negociaciones previas entre Anthropic y el Departamento de Defensa fracasaran. El CEO Sam Altman reconoció que el trato fue "definitivamente apresurado" y que las percepciones sobre el mismo no son las mejores.
Tras las dificultades de Anthropic, el presidente Donald Trump ordenó a las agencias federales dejar de utilizar la tecnología de esta empresa, designándola como un riesgo para la cadena de suministro. En este contexto, OpenAI anunció rápidamente que había alcanzado un acuerdo para desplegar modelos en entornos clasificados.
OpenAI se enfrenta a críticas sobre la transparencia de sus salvaguardas. En un intento de defender el acuerdo, la compañía publicó un blog donde especificó que sus modelos no pueden ser utilizados para vigilancia masiva, sistemas de armas autónomas o decisiones automatizadas de alto riesgo.
El post de OpenAI se centró en tres áreas clave donde sus modelos no pueden ser aplicados: la vigilancia masiva, los sistemas de armas autónomas y decisiones automatizadas de alto impacto, como los sistemas de "crédito social". Según la empresa, su enfoque para la implementación incluye un sistema de salvaguardas más robusto que el de otras empresas de IA que dependen principalmente de políticas de uso.
El blog afirmó: "Mantenemos plena discreción sobre nuestra arquitectura de seguridad, implementamos a través de la nube, el personal autorizado de OpenAI está involucrado y contamos con fuertes protecciones contractuales". Este enfoque se considera más efectivo que las políticas de uso que han adoptado otras compañías.
Sin embargo, tras la publicación del blog, el periodista Mike Masnick de Techdirt cuestionó la veracidad de las afirmaciones de OpenAI, sugiriendo que el acuerdo permite la vigilancia doméstica al cumplir con la Ejecutiva Orden 12333 de EE. UU., que permite a la NSA llevar a cabo vigilancia en comunicaciones fuera del país que incluyan información de ciudadanos estadounidenses.
En una publicación de LinkedIn, Katrina Mulligan, responsable de asociaciones de seguridad nacional de OpenAI, argumentó que muchas de las discusiones sobre el lenguaje del contrato asumen que la única protección contra el uso indebido de IA es una política de uso en un contrato específico. "Eso no es cómo funciona esto", afirmó.
Altman también abordó las críticas en la plataforma X, donde admitió que el acuerdo había sido apresurado y que había generado un fuerte rechazo hacia OpenAI, hasta el punto de que Claude, el modelo de Anthropic, superó a ChatGPT en la App Store de Apple.
Finalmente, Altman explicó que el objetivo de la firma era desescalar las tensiones y que creían que el acuerdo ofrecido era bueno. "Si tenemos razón y esto lleva a una desescalada entre el Departamento de Defensa y la industria, seremos vistos como genios. De lo contrario, seremos considerados como apresurados y descuidados".
¿Qué reveló OpenAI?
Detalles sobre su acuerdo con el Pentágono y las salvaguardas en el uso de su tecnología.
¿Quién es el CEO de OpenAI?
Sam Altman, quien admitió que el acuerdo fue apresurado.
¿Cuándo se alcanzó el acuerdo?
El acuerdo fue anunciado rápidamente después de que fracasaran las negociaciones entre Anthropic y el Pentágono.
¿Dónde se aplicarán los modelos de OpenAI?
En entornos clasificados, con restricciones en vigilancia y armas autónomas.
¿Por qué es relevante este acuerdo?
Genera preguntas sobre la transparencia y las salvaguardas en el uso de IA en el ámbito militar.
Te puede Interesar
Inversión en infraestructura de IA
Los líderes de la tecnología invierten miles de millones en infraestructura para IA, con gastos significativos de Meta, Oracle, Microsoft y Google, en un contexto de creciente demanda de procesamiento de datos.
Dilemas éticos en la inteligencia artificial
La compañía de inteligencia artificial Anthropic enfrenta un severo revés tras ser excluida de contratos con el Pentágono. Expertos advierten sobre el peligro de la falta de regulación en el sector.
Acuerdo con el Departamento de Defensa
Sam Altman, CEO de OpenAI, anunció un acuerdo con el Pentágono que permite el uso de modelos de inteligencia artificial en redes clasificadas, abordando preocupaciones sobre vigilancia y armamento autónomo.
Polémica por uso de inteligencia artificial
El presidente Trump dispuso que las agencias federales cesen el uso de productos de Anthropic tras una controversia con el Departamento de Defensa. La decisión se comunicó en un post de Truth Social.