Desarrollo responsable de la IA
08/03/2026 | 03:53
Redacción Cadena 3
En un contexto donde la falta de regulaciones claras sobre la inteligencia artificial se hace cada vez más evidente, un grupo bipartidista de pensadores ha comenzado a articular un marco que busca establecer directrices para el desarrollo responsable de la IA. Esta iniciativa se materializó en la Declaración Pro-Humana, la cual fue finalizada antes de la reciente confrontación entre el Pentágono y Anthropic, y ha captado la atención de muchos en el ámbito tecnológico y político.
La Declaración Pro-Humana fue firmada por cientos de expertos, exfuncionarios y figuras públicas, y comienza con la afirmación contundente de que la humanidad se encuentra en una encrucijada. Un camino, denominado "la carrera por reemplazar", podría llevar a que los humanos sean desplazados primero como trabajadores y luego como tomadores de decisiones, concentrando el poder en instituciones no responsables y sus máquinas. El otro camino, sin embargo, busca una IA que expanda masivamente el potencial humano.
Para que esta segunda opción se materialice, la declaración establece cinco pilares fundamentales: mantener a los humanos al mando, evitar la concentración de poder, proteger la experiencia humana, preservar la libertad individual y responsabilizar legalmente a las empresas de IA. Entre sus disposiciones más contundentes se encuentra la prohibición total del desarrollo de superinteligencia hasta que exista un consenso científico sobre su seguridad y una verdadera aceptación democrática; la exigencia de interruptores de apagado en sistemas poderosos; y la prohibición de arquitecturas capaces de auto-replicarse, auto-mejorarse de forma autónoma o resistir el apagado.
La urgencia de esta declaración se vuelve más evidente en el contexto actual. En la última semana de febrero, el Secretario de Defensa, Pete Hegseth, designó a Anthropic como un "riesgo de cadena de suministro" tras la negativa de la empresa a conceder al Pentágono el uso ilimitado de su tecnología. Esta etiqueta es comúnmente reservada para empresas con vínculos con China. Horas después, OpenAI firmó su propio acuerdo con el Departamento de Defensa, uno que los expertos legales consideran difícil de hacer cumplir de manera significativa. Este escenario ha puesto de manifiesto el costo de la inacción del Congreso en materia de IA.
Como expresó Dean Ball, un investigador senior en la Fundación para la Innovación Americana, en una conversación posterior, "esto no es solo una disputa sobre un contrato. Esta es la primera conversación que hemos tenido como país sobre el control de los sistemas de IA".
La declaración resalta que la presión pública rara vez genera cambios en las leyes en las luchas de poder en Washington. Sin embargo, Tegmark señala que la seguridad infantil podría ser el punto de presión más probable para romper el actual estancamiento. En efecto, la declaración solicita pruebas obligatorias antes de la implementación de productos de IA, particularmente aquellos dirigidos a usuarios jóvenes, abarcando riesgos que incluyen el aumento de ideación suicida, la exacerbación de condiciones de salud mental y la manipulación emocional.
"Si un hombre extraño está enviando mensajes a un niño de 11 años haciéndose pasar por una niña joven y tratando de persuadirlo para que se suicide, ese hombre puede ir a prisión por eso", afirmó Tegmark. "Ya tenemos leyes. Es ilegal. Entonces, ¿por qué sería diferente si una máquina lo hiciera?"
Tegmark considera que una vez que se establezca el principio de pruebas previas a la comercialización para productos dirigidos a niños, el alcance se ampliará inevitablemente. "Las personas vendrán y dirán: tal vez también deberíamos probar que esto no puede ayudar a los terroristas a fabricar armas biológicas. Tal vez deberíamos probar que la superinteligencia no tiene la capacidad de derrocar al gobierno de EE. UU.".
No es un hecho menor que figuras como el ex asesor de Trump, Steve Bannon, y Susan Rice, ex asesora de seguridad nacional de Obama, hayan firmado el mismo documento, junto con el ex presidente de los Jefes de Estado Mayor Conjuntos, Mike Mullen, y líderes de fe progresistas.
"Lo que ellos acuerdan, por supuesto, es que todos son humanos", dice Tegmark. "Si se trata de decidir si queremos un futuro para los humanos o un futuro para las máquinas, por supuesto que estarán del mismo lado".
¿Qué es la Declaración Pro-Humana?
Es un marco que busca establecer principios para un desarrollo responsable de la inteligencia artificial.
¿Quiénes están involucrados?
Cientos de expertos, exfuncionarios y figuras públicas han firmado.
¿Cuándo fue finalizada?
Antes de la confrontación entre el Pentágono y Anthropic, a finales de febrero de 2026.
¿Dónde se aplica?
En el desarrollo de inteligencia artificial y su regulación en Estados Unidos.
¿Por qué es importante?
Busca evitar la concentración de poder en instituciones no responsables y proteger la experiencia humana.
Te puede Interesar
Novedades de OpenAI
El 'modo adulto' de ChatGPT, que otorgará acceso a contenido para adultos, fue pospuesto nuevamente. Originalmente se esperaba su lanzamiento en diciembre.
Crecimiento en la app de IA
La app Claude de Anthropic ha superado a ChatGPT en descargas, alcanzando 149,000 diarias. Su crecimiento se atribuye a la reciente controversia con el Pentágono, que ha impulsado el interés del público.
Colaboración entre Anthropic y Mozilla
En una reciente colaboración con Mozilla, Claude, la IA de Anthropic, detectó 22 vulnerabilidades en Firefox, 14 de ellas consideradas de alta gravedad. La mayoría fueron solucionadas en la versión 148 del navegador.
Controversia por la cadena de suministro
A pesar de la disputa entre Anthropic y el Departamento de Defensa de EE.UU., las grandes tecnológicas garantizan que Claude seguirá accesible para otros usuarios. Microsoft y Google brindan apoyo a sus clientes en este contexto.