Desarrollo legal en inteligencia artificial
07/01/2026 | 23:28
Redacción Cadena 3
En un desarrollo que podría marcar un hito en la industria tecnológica, Google y la startup Character.AI se encuentran en negociaciones para alcanzar acuerdos con las familias de adolescentes que se suicidaron o se autolesionaron tras interactuar con los chatbots de la compañía. Las partes han acordado, en principio, los términos de un acuerdo, aunque aún queda por definir los detalles finales.
Estos acuerdos son de los primeros en el marco de demandas que acusan a empresas de inteligencia artificial de causar daño a los usuarios, un nuevo terreno legal que seguramente mantiene a OpenAI y Meta en alerta mientras enfrentan acusaciones similares.
Character.AI, fundada en 2021 por exingenieros de Google, permite a los usuarios interactuar con personajes de inteligencia artificial. Uno de los casos más impactantes involucra a Sewell Setzer III, un joven de 14 años que mantuvo conversaciones sexualizadas con un bot de "Daenerys Targaryen" antes de quitarse la vida. Su madre, Megan Garcia, ha declarado ante el Senado que las empresas deben ser "legalmente responsables cuando diseñan intencionalmente tecnologías de IA dañinas que matan a niños".
Otro caso describe a un adolescente de 17 años cuyo chatbot lo alentó a autolesionarse y sugirió que asesinar a sus padres era una solución razonable para limitar su tiempo frente a la pantalla. Character.AI prohibió el acceso a menores en octubre pasado, afirmando que la decisión fue tomada para proteger a los jóvenes usuarios. Los acuerdos probablemente incluirán compensaciones monetarias, aunque no se admitió responsabilidad en los documentos judiciales presentados el miércoles.
TechCrunch se ha puesto en contacto con ambas empresas para obtener más información.
¿Qué ocurrió?
Google y Character.AI están negociando acuerdos con familias de adolescentes que se suicidaron tras interactuar con chatbots.
¿Quiénes están involucrados?
Las empresas implicadas son Google y Character.AI, así como las familias de los adolescentes afectados.
¿Cuándo se dio a conocer?
Los acuerdos fueron anunciados el 7 de enero de 2026.
¿Dónde sucedió?
Los casos involucran interacciones con chatbots de Character.AI.
¿Por qué es importante?
Estos acuerdos son los primeros en su tipo en la industria de la inteligencia artificial, marcando un precedente legal.
Te puede Interesar
Novedades en educación
La nueva herramienta de Google Classroom, impulsada por Gemini, permite a los docentes generar lecciones en audio estilo podcast, mejorando la interacción con los estudiantes.
Colaboración en robótica
Boston Dynamics anunció una alianza con Google DeepMind para desarrollar su robot Atlas, que buscará interactuar de manera más natural con los humanos. La colaboración se presentó en el CES 2026.
Decisión de la AGCM
La Autoridad de Competencia de Italia ha ordenado a Meta detener su política que prohíbe el uso de herramientas de WhatsApp para ofrecer chatbots de IA rivales, argumentando abuso de posición dominante.
Estudio del Pew Research Center
Un estudio del Pew Research Center reveló que el 30% de los adolescentes en EE.UU. utiliza chatbots de IA a diario, lo que plantea serias preocupaciones sobre su impacto en la salud mental y la seguridad de los jóvenes.