El dilema de Anthropic: ¿La promesa de un AI seguro se convierte en un riesgo nacional?

Dilemas éticos en la inteligencia artificial

El dilema de Anthropic: ¿La promesa de un AI seguro se convierte en un riesgo nacional?

28/02/2026 | 23:53

La compañía de inteligencia artificial Anthropic enfrenta un severo revés tras ser excluida de contratos con el Pentágono. Expertos advierten sobre el peligro de la falta de regulación en el sector.

Redacción Cadena 3

En un giro inesperado, Anthropic, la empresa de inteligencia artificial fundada en 2021 por Dario Amodei, fue excluida de los contratos del Pentágono tras negarse a permitir que su tecnología se utilizara para la vigilancia masiva de ciudadanos estadounidenses y en drones autónomos. Este anuncio, realizado durante una entrevista, sorprendió a muchos en el sector, dado que la empresa había promovido su compromiso con la seguridad en el desarrollo de inteligencia artificial.

La decisión del gobierno estadounidense implica la pérdida de un contrato que podría alcanzar los 200 millones de dólares, y marca un precedente en la relación entre el sector privado de la inteligencia artificial y las agencias gubernamentales. Según el Secretario de Defensa Pete Hegseth, esta medida se fundamenta en la ley de seguridad nacional, que prohíbe a las empresas colaborar con el gobierno si no cumplen con ciertos estándares de ética y responsabilidad.

El hecho de que Anthropic se haya encontrado en esta situación ha llevado a muchos a cuestionar las promesas de las empresas de inteligencia artificial de autorregularse. Max Tegmark, físico del MIT y fundador del Future of Life Institute, ha advertido durante años que la carrera por desarrollar sistemas de inteligencia artificial más potentes está superando la capacidad del mundo para regularlos adecuadamente. Tegmark sostiene que la falta de regulación en el sector es alarmante, dado que se están tomando decisiones que podrían tener consecuencias devastadoras para la sociedad.

En una entrevista reciente, Tegmark comentó: "La carretera al infierno está pavimentada de buenas intenciones. Es fascinante pensar en cómo hace una década se hablaba de la inteligencia artificial como una solución a problemas como el cáncer, y ahora estamos lidiando con la posibilidad de que esta tecnología sea utilizada para la vigilancia masiva".

Anthropic ha intentado posicionarse como una empresa que prioriza la seguridad en la inteligencia artificial, pero su reciente decisión de colaborar con agencias de defensa ha generado críticas sobre la coherencia de su postura. Tegmark argumenta que la industria en su conjunto, incluyendo a competidores como OpenAI y Google DeepMind, ha fallado en su compromiso de establecer regulaciones vinculantes para el uso de IA.

"Estamos en un vacío regulatorio completo", advierte Tegmark. "Si las empresas hubieran ido al gobierno y solicitado que sus compromisos voluntarios se convirtieran en ley, no estarían en esta situación ahora".

La falta de regulación efectiva en el uso de IA, según Tegmark, plantea un riesgo significativo para la seguridad nacional. "No hay leyes que prohíban construir IA que pueda matar estadounidenses. Si las empresas hubieran apoyado regulaciones, no estarían en este aprieto", concluyó.

En este contexto, el futuro de la inteligencia artificial en Estados Unidos se enfrenta a un dilema. Mientras el gobierno presiona para garantizar que la tecnología no se utilice de manera irresponsable, las empresas deben decidir si seguirán con sus promesas de seguridad o se arriesgarán a perder contratos valiosos. El debate sobre la regulación de la inteligencia artificial es más relevante que nunca, y los expertos advierten que las decisiones que se tomen en los próximos meses serán cruciales para el futuro del sector.

Lectura rápida

¿Qué sucedió con Anthropic?
Anthropic fue excluida de los contratos del Pentágono tras negarse a permitir el uso de su tecnología para vigilancia masiva y drones autónomos.

¿Cuál es la reacción de los expertos?
Max Tegmark advierte que la falta de regulación en IA podría tener consecuencias devastadoras y critica a las empresas por no cumplir sus promesas de seguridad.

¿Qué implica esta decisión para Anthropic?
La compañía podría perder un contrato de hasta 200 millones de dólares y ser excluida de trabajar con otros contratistas de defensa.

¿Qué opinan sobre la regulación de IA?
Tegmark sostiene que la industria ha fallado en establecer regulaciones vinculantes, lo que ha llevado a un vacío regulatorio en el uso de IA.

¿Qué futuro le espera a la IA en EE. UU.?
El futuro de la inteligencia artificial en EE. UU. está en una encrucijada, con la necesidad urgente de establecer regulaciones que garanticen su uso responsable.

Te puede Interesar

Acuerdo con el Departamento de Defensa

Sam Altman, CEO de OpenAI, anunció un acuerdo con el Pentágono que permite el uso de modelos de inteligencia artificial en redes clasificadas, abordando preocupaciones sobre vigilancia y armamento autónomo.

Decisión del presidente de EE. UU.

El presidente ordenó a las agencias federales que dejen de usar productos de Anthropic tras una disputa pública con el Departamento de Defensa. Se estableció un plazo de seis meses para la transición.

Controversia por declaraciones de Musk

Elon Musk, en su demanda contra OpenAI, defendió la seguridad de xAI frente a ChatGPT, y afirmó que Grok no ha causado suicidios, en un contexto de preocupaciones sobre la manipulación emocional de ChatGPT.

Crecimiento de usuarios

OpenAI anunció que ChatGPT llegó a 900 millones de usuarios semanales activos y 50 millones de suscriptores pagos, en medio de un financiamiento privado de $110 mil millones.

© Copyright 2026 Cadena 3 Argentina