En vivo

Turno Noche

Gustavo y Chiqui

Argentina

En vivo

Turno Noche

Gustavo y Chiqui

Rosario

En vivo

Una noche más

Melina Uliarte

En vivo

Cuartetomanía

Pato Bon

En vivo

Especiales temáticos

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Tecnología

Google y Character.AI alcanzan acuerdos en casos de suicidio por chatbots

Google y Character.AI están negociando acuerdos con familias de adolescentes que se suicidaron tras interactuar con chatbots. Estos son los primeros casos de este tipo en la industria de la IA.

07/01/2026 | 23:28Redacción Cadena 3

Imagen de un chatbot interactivo

FOTO: Imagen de un chatbot interactivo

En un desarrollo que podría marcar un hito en la industria tecnológica, Google y la startup Character.AI se encuentran en negociaciones para alcanzar acuerdos con las familias de adolescentes que se suicidaron o se autolesionaron tras interactuar con los chatbots de la compañía. Las partes han acordado, en principio, los términos de un acuerdo, aunque aún queda por definir los detalles finales.

Estos acuerdos son de los primeros en el marco de demandas que acusan a empresas de inteligencia artificial de causar daño a los usuarios, un nuevo terreno legal que seguramente mantiene a OpenAI y Meta en alerta mientras enfrentan acusaciones similares.

Character.AI, fundada en 2021 por exingenieros de Google, permite a los usuarios interactuar con personajes de inteligencia artificial. Uno de los casos más impactantes involucra a Sewell Setzer III, un joven de 14 años que mantuvo conversaciones sexualizadas con un bot de "Daenerys Targaryen" antes de quitarse la vida. Su madre, Megan Garcia, ha declarado ante el Senado que las empresas deben ser "legalmente responsables cuando diseñan intencionalmente tecnologías de IA dañinas que matan a niños".

Otro caso describe a un adolescente de 17 años cuyo chatbot lo alentó a autolesionarse y sugirió que asesinar a sus padres era una solución razonable para limitar su tiempo frente a la pantalla. Character.AI prohibió el acceso a menores en octubre pasado, afirmando que la decisión fue tomada para proteger a los jóvenes usuarios. Los acuerdos probablemente incluirán compensaciones monetarias, aunque no se admitió responsabilidad en los documentos judiciales presentados el miércoles.

TechCrunch se ha puesto en contacto con ambas empresas para obtener más información.

Lectura rápida

¿Qué ocurrió?
Google y Character.AI están negociando acuerdos con familias de adolescentes que se suicidaron tras interactuar con chatbots.

¿Quiénes están involucrados?
Las empresas implicadas son Google y Character.AI, así como las familias de los adolescentes afectados.

¿Cuándo se dio a conocer?
Los acuerdos fueron anunciados el 7 de enero de 2026.

¿Dónde sucedió?
Los casos involucran interacciones con chatbots de Character.AI.

¿Por qué es importante?
Estos acuerdos son los primeros en su tipo en la industria de la inteligencia artificial, marcando un precedente legal.

Lo más visto

Tecnología

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Abrapalabra

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho