En vivo

Noche y Día

Nora Covassi

Argentina

En vivo

Noche y Día

Nora Covassi

Rosario

En vivo

De fiesta

Música

En vivo

Musical

Música

En vivo

Random domingos

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Tecnología

El dilema de Anthropic: ¿La promesa de un AI seguro se convierte en un riesgo nacional?

La compañía de inteligencia artificial Anthropic enfrenta un severo revés tras ser excluida de contratos con el Pentágono. Expertos advierten sobre el peligro de la falta de regulación en el sector.

28/02/2026 | 23:53Redacción Cadena 3

El dilema de Anthropic: ¿La promesa de un AI seguro se convierte en un riesgo nacional?

FOTO: El dilema de Anthropic: ¿La promesa de un AI seguro se convierte en un riesgo nacional?

En un giro inesperado, Anthropic, la empresa de inteligencia artificial fundada en 2021 por Dario Amodei, fue excluida de los contratos del Pentágono tras negarse a permitir que su tecnología se utilizara para la vigilancia masiva de ciudadanos estadounidenses y en drones autónomos. Este anuncio, realizado durante una entrevista, sorprendió a muchos en el sector, dado que la empresa había promovido su compromiso con la seguridad en el desarrollo de inteligencia artificial.

La decisión del gobierno estadounidense implica la pérdida de un contrato que podría alcanzar los 200 millones de dólares, y marca un precedente en la relación entre el sector privado de la inteligencia artificial y las agencias gubernamentales. Según el Secretario de Defensa Pete Hegseth, esta medida se fundamenta en la ley de seguridad nacional, que prohíbe a las empresas colaborar con el gobierno si no cumplen con ciertos estándares de ética y responsabilidad.

El hecho de que Anthropic se haya encontrado en esta situación ha llevado a muchos a cuestionar las promesas de las empresas de inteligencia artificial de autorregularse. Max Tegmark, físico del MIT y fundador del Future of Life Institute, ha advertido durante años que la carrera por desarrollar sistemas de inteligencia artificial más potentes está superando la capacidad del mundo para regularlos adecuadamente. Tegmark sostiene que la falta de regulación en el sector es alarmante, dado que se están tomando decisiones que podrían tener consecuencias devastadoras para la sociedad.

En una entrevista reciente, Tegmark comentó: "La carretera al infierno está pavimentada de buenas intenciones. Es fascinante pensar en cómo hace una década se hablaba de la inteligencia artificial como una solución a problemas como el cáncer, y ahora estamos lidiando con la posibilidad de que esta tecnología sea utilizada para la vigilancia masiva".

Anthropic ha intentado posicionarse como una empresa que prioriza la seguridad en la inteligencia artificial, pero su reciente decisión de colaborar con agencias de defensa ha generado críticas sobre la coherencia de su postura. Tegmark argumenta que la industria en su conjunto, incluyendo a competidores como OpenAI y Google DeepMind, ha fallado en su compromiso de establecer regulaciones vinculantes para el uso de IA.

"Estamos en un vacío regulatorio completo", advierte Tegmark. "Si las empresas hubieran ido al gobierno y solicitado que sus compromisos voluntarios se convirtieran en ley, no estarían en esta situación ahora".

La falta de regulación efectiva en el uso de IA, según Tegmark, plantea un riesgo significativo para la seguridad nacional. "No hay leyes que prohíban construir IA que pueda matar estadounidenses. Si las empresas hubieran apoyado regulaciones, no estarían en este aprieto", concluyó.

En este contexto, el futuro de la inteligencia artificial en Estados Unidos se enfrenta a un dilema. Mientras el gobierno presiona para garantizar que la tecnología no se utilice de manera irresponsable, las empresas deben decidir si seguirán con sus promesas de seguridad o se arriesgarán a perder contratos valiosos. El debate sobre la regulación de la inteligencia artificial es más relevante que nunca, y los expertos advierten que las decisiones que se tomen en los próximos meses serán cruciales para el futuro del sector.

Lectura rápida

¿Qué sucedió con Anthropic?
Anthropic fue excluida de los contratos del Pentágono tras negarse a permitir el uso de su tecnología para vigilancia masiva y drones autónomos.

¿Cuál es la reacción de los expertos?
Max Tegmark advierte que la falta de regulación en IA podría tener consecuencias devastadoras y critica a las empresas por no cumplir sus promesas de seguridad.

¿Qué implica esta decisión para Anthropic?
La compañía podría perder un contrato de hasta 200 millones de dólares y ser excluida de trabajar con otros contratistas de defensa.

¿Qué opinan sobre la regulación de IA?
Tegmark sostiene que la industria ha fallado en establecer regulaciones vinculantes, lo que ha llevado a un vacío regulatorio en el uso de IA.

¿Qué futuro le espera a la IA en EE. UU.?
El futuro de la inteligencia artificial en EE. UU. está en una encrucijada, con la necesidad urgente de establecer regulaciones que garanticen su uso responsable.

Lo más visto

Tecnología

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho