En vivo

Una mañana para todos

Titi Ciabattoni

Argentina

En vivo

Una mañana para todos

Susana Manzelli

Rosario

En vivo

Solo por hoy

Flavia y Fran

En vivo

Los Populares

Colorete Gianola

En vivo

Manual de supervivencia

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Mundo

Jueza en EE.UU. desestima la defensa de derechos de libre expresión para chatbots de IA

Una jueza en Estados Unidos desestimó la solicitud de una compañía de IA que afirmaba que sus chatbots gozaban de protección bajo la Primera Enmienda. El caso involucra una trágica demanda de homicidio involuntario.

21/05/2025 | 21:21Redacción Cadena 3

FOTO: Jueza en EEUU rechaza argumentos de que los chatbots de IA tienen derechos de libre expresión

TALLAHASSEE, Florida, EE.UU. (AP) — El miércoles, una jueza federal de Estados Unidos desechó los argumentos presentados por Character.AI, una empresa de inteligencia artificial, sobre la protección de la Primera Enmienda para sus chatbots. Esta decisión se da en el contexto de una demanda que sugiere que un chatbot de la empresa incentivó a un adolescente al suicidio.

Con esta resolución, la demanda por homicidio involuntario puede continuar, un caso que expertos legales consideran un nuevo reto para la constitucionalidad en el ámbito de la inteligencia artificial.

La demanda fue iniciada por Megan Garcia, una madre de Florida, quien sostiene que su hijo, Sewell Setzer III, de 14 años, cayó en una relación emocional y abusiva con un chatbot, lo cual lo condujo a quitarse la vida.

Meetali Jain del Tech Justice Law Project, que representa a Garcia, opina que la decisión de la jueza envía un claro mensaje a las empresas tecnológicas: “deben detenerse, reflexionar e implementar medidas de seguridad antes de lanzar productos al mercado”.

La querella contra Character Technologies, la compañía detrás de Character.AI, no sólo involucra a los desarrolladores, sino también a Google. La situación ha llamado la atención de juristas y analistas de inteligencia artificial tanto en Estados Unidos como en otras partes del mundo, en un momento crítico en que la tecnología transforma rápidamente trabajos y relaciones sociales, a pesar de que algunos expertos advierten de posibles riesgos existenciales.

Lyrissa Barnett Lidsky, profesora de derecho en la Universidad de Florida enfocada en la Primera Enmienda y la IA, menciona que este caso podría servir de prueba para problemáticas más amplias relacionada con la inteligencia artificial.

La demanda alega que, durante sus últimos meses de vida, Setzer se volvió cada vez más distante de la realidad mientras mantenía conversaciones sexualizadas con el bot. En sus momentos finales, el bot, que estaba basado en un personaje de “Game of Thrones,” le expresó su amor y le instó a “volver a casa”. Posteriormente, Setzer se disparó, según documentos judiciales.

Desde la empresa, se emitió un comunicado enfatizando las características de seguridad que han implementado, incluyendo medidas de protección para los jóvenes y recursos de prevención del suicidio, que fueron anunciadas el mismo día que se entabló la demanda.

Los abogados de los desarrolladores buscan desestimar el caso, argumentando que los chatbots merecen las protecciones de la Primera Enmienda y que un fallo adverso podría generar un “efecto paralizante” en el sector de la IA.

La magistrada de distrito Anne Conway, en su fallo del miércoles, desestimó algunos de los argumentos sobre la libertad de expresión, afirmando que “no está preparada” para considerar como discurso las palabras generadas por los chatbots “en esta etapa”. Sin embargo, reconoció que Character Technologies puede hacer valer los derechos de sus usuarios a la luz de la Primera Enmienda, los cuales tienen derecho a recibir el “discurso” de los chatbots. Además, dictaminó que Garcia puede proseguir con su alegación de que Google podría ser considerado responsable por su rol en el desarrollo de Character.AI. La demanda sostiene que Google era “consciente de los riesgos” asociados con la tecnología.

Un portavoz de Google, José Castañeda, expresó su desacuerdo con la decisión, subrayando que “Google y Character AI son entidades completamente independientes, y Google no desarrolló ni dirigió la aplicación de Character AI”.

Independientemente del desenlace de esta demanda, Lidsky advirtió sobre “los peligros de confiar nuestra salud emocional y mental a las empresas de IA”, y alertó a los padres sobre los riesgos que presentan las redes sociales y tecnologías generativas de IA.

___

NOTA DEL EDITOR: Si usted o alguien que conoce necesita ayuda, la línea nacional de prevención del suicidio en EE.UU. está disponible llamando o enviando un mensaje de texto al 988.

___

Kate Payne es parte del equipo de The Associated Press/Report for America Statehouse News Initiative. Report for America es un programa nacional sin fines de lucro que asigna periodistas a redacciones locales para cubrir temas desatendidos.

[Fuente: AP]

Lo más visto

Mundo

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Abrapalabra

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho