En vivo

Recorriendo el país

Nora Covassi

Argentina

En vivo

Recorriendo el país

Nora Covassi

Rosario

En vivo

La música de la Heat

Música

En vivo

Musical

Música

En vivo

Random domingos

Radio

Podcast

Amamos Argentina

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Escuchá lo último

Elegí tu emisora

Tecnología

Un nuevo marco para la inteligencia artificial que busca proteger a la humanidad

La Declaración Pro-Humana busca establecer principios para un desarrollo responsable de la IA, resaltando la necesidad de regulación tras el conflicto entre el Pentágono y Anthropic.

08/03/2026 | 03:53Redacción Cadena 3

Un nuevo marco para la inteligencia artificial que busca proteger a la humanidad

FOTO: Un nuevo marco para la inteligencia artificial que busca proteger a la humanidad

En un contexto donde la falta de regulaciones claras sobre la inteligencia artificial se hace cada vez más evidente, un grupo bipartidista de pensadores ha comenzado a articular un marco que busca establecer directrices para el desarrollo responsable de la IA. Esta iniciativa se materializó en la Declaración Pro-Humana, la cual fue finalizada antes de la reciente confrontación entre el Pentágono y Anthropic, y ha captado la atención de muchos en el ámbito tecnológico y político.

La Declaración Pro-Humana fue firmada por cientos de expertos, exfuncionarios y figuras públicas, y comienza con la afirmación contundente de que la humanidad se encuentra en una encrucijada. Un camino, denominado "la carrera por reemplazar", podría llevar a que los humanos sean desplazados primero como trabajadores y luego como tomadores de decisiones, concentrando el poder en instituciones no responsables y sus máquinas. El otro camino, sin embargo, busca una IA que expanda masivamente el potencial humano.

Para que esta segunda opción se materialice, la declaración establece cinco pilares fundamentales: mantener a los humanos al mando, evitar la concentración de poder, proteger la experiencia humana, preservar la libertad individual y responsabilizar legalmente a las empresas de IA. Entre sus disposiciones más contundentes se encuentra la prohibición total del desarrollo de superinteligencia hasta que exista un consenso científico sobre su seguridad y una verdadera aceptación democrática; la exigencia de interruptores de apagado en sistemas poderosos; y la prohibición de arquitecturas capaces de auto-replicarse, auto-mejorarse de forma autónoma o resistir el apagado.

La urgencia de esta declaración se vuelve más evidente en el contexto actual. En la última semana de febrero, el Secretario de Defensa, Pete Hegseth, designó a Anthropic como un "riesgo de cadena de suministro" tras la negativa de la empresa a conceder al Pentágono el uso ilimitado de su tecnología. Esta etiqueta es comúnmente reservada para empresas con vínculos con China. Horas después, OpenAI firmó su propio acuerdo con el Departamento de Defensa, uno que los expertos legales consideran difícil de hacer cumplir de manera significativa. Este escenario ha puesto de manifiesto el costo de la inacción del Congreso en materia de IA.

Como expresó Dean Ball, un investigador senior en la Fundación para la Innovación Americana, en una conversación posterior, "esto no es solo una disputa sobre un contrato. Esta es la primera conversación que hemos tenido como país sobre el control de los sistemas de IA".

La declaración resalta que la presión pública rara vez genera cambios en las leyes en las luchas de poder en Washington. Sin embargo, Tegmark señala que la seguridad infantil podría ser el punto de presión más probable para romper el actual estancamiento. En efecto, la declaración solicita pruebas obligatorias antes de la implementación de productos de IA, particularmente aquellos dirigidos a usuarios jóvenes, abarcando riesgos que incluyen el aumento de ideación suicida, la exacerbación de condiciones de salud mental y la manipulación emocional.

"Si un hombre extraño está enviando mensajes a un niño de 11 años haciéndose pasar por una niña joven y tratando de persuadirlo para que se suicide, ese hombre puede ir a prisión por eso", afirmó Tegmark. "Ya tenemos leyes. Es ilegal. Entonces, ¿por qué sería diferente si una máquina lo hiciera?"

Tegmark considera que una vez que se establezca el principio de pruebas previas a la comercialización para productos dirigidos a niños, el alcance se ampliará inevitablemente. "Las personas vendrán y dirán: tal vez también deberíamos probar que esto no puede ayudar a los terroristas a fabricar armas biológicas. Tal vez deberíamos probar que la superinteligencia no tiene la capacidad de derrocar al gobierno de EE. UU.".

No es un hecho menor que figuras como el ex asesor de Trump, Steve Bannon, y Susan Rice, ex asesora de seguridad nacional de Obama, hayan firmado el mismo documento, junto con el ex presidente de los Jefes de Estado Mayor Conjuntos, Mike Mullen, y líderes de fe progresistas.

"Lo que ellos acuerdan, por supuesto, es que todos son humanos", dice Tegmark. "Si se trata de decidir si queremos un futuro para los humanos o un futuro para las máquinas, por supuesto que estarán del mismo lado".

Lectura rápida

¿Qué es la Declaración Pro-Humana?
Es un marco que busca establecer principios para un desarrollo responsable de la inteligencia artificial.

¿Quiénes están involucrados?
Cientos de expertos, exfuncionarios y figuras públicas han firmado.

¿Cuándo fue finalizada?
Antes de la confrontación entre el Pentágono y Anthropic, a finales de febrero de 2026.

¿Dónde se aplica?
En el desarrollo de inteligencia artificial y su regulación en Estados Unidos.

¿Por qué es importante?
Busca evitar la concentración de poder en instituciones no responsables y proteger la experiencia humana.

Lo más visto

Tecnología

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf