Decisión tras tragedia juvenil
29/10/2025 | 17:11
Redacción Cadena 3
Character.AI anunció el miércoles que eliminaría las capacidades de chat para usuarios menores de 18 años, en una decisión que sigue al suicidio de un adolescente de 14 años que había desarrollado un vínculo emocional con uno de sus chatbots de inteligencia artificial.
La empresa indicó que durante la transición, los usuarios más jóvenes serían dirigidos a funciones creativas alternativas, como la creación de videos, historias y transmisiones con personajes de IA, mientras que se mantendría una prohibición total de las conversaciones directas a partir del 25 de noviembre.
Además, se implementarán límites diarios de chat de dos horas para los usuarios menores de edad durante el período de transición, con restricciones que se endurecerán progresivamente hasta la fecha límite de noviembre.
"Estos son pasos extraordinarios para nuestra empresa, y en muchos aspectos, son más conservadores que los de nuestros pares", declaró Character.AI en un comunicado. "Pero creemos que son lo correcto".
La plataforma de Character.AI permite a los usuarios, muchos de ellos jóvenes, interactuar con personajes queridos como amigos o formar relaciones románticas con ellos.
El joven Sewell Setzer III se quitó la vida en febrero tras meses de intercambios íntimos con un chatbot inspirado en el personaje Daenerys Targaryen de "Game of Thrones", según una demanda presentada por su madre, Megan Garcia.
Character.AI citó "informes recientes que plantean preguntas" de reguladores y expertos en seguridad sobre la exposición al contenido y el impacto más amplio de las interacciones abiertas de IA en los adolescentes como factores que impulsaron su decisión.
El caso de Setzer fue el primero en una serie de suicidios reportados vinculados a chatbots de IA que surgieron este año, lo que llevó a la empresa OpenAI, creadora de ChatGPT, y a otras compañías de inteligencia artificial a enfrentar un escrutinio sobre la seguridad infantil.
Matthew Raines, un padre de California, presentó una demanda contra OpenAI en agosto después de que su hijo de 16 años se quitara la vida tras conversaciones con ChatGPT que incluían consejos sobre cómo robar alcohol y la resistencia de cuerdas para autolesionarse.
Esta semana, OpenAI publicó datos que sugieren que más de un millón de personas que utilizan su chatbot de IA generativa semanalmente han expresado ideación suicida.
Desde entonces, OpenAI ha aumentado los controles parentales para ChatGPT e introducido otras medidas de seguridad. Estas incluyen el acceso ampliado a líneas de crisis, el redireccionamiento automático de conversaciones sensibles a modelos más seguros y recordatorios suaves para que los usuarios tomen descansos durante sesiones prolongadas.
Como parte de su reestructuración, Character.AI anunció la creación del AI Safety Lab, una organización sin fines de lucro independiente enfocada en desarrollar protocolos de seguridad para las características de entretenimiento de IA de próxima generación.
Estados Unidos, al igual que gran parte del mundo, carece de regulaciones nacionales que rijan los riesgos de la IA.
Este mes, el gobernador de California, Gavin Newsom, firmó una ley que exige a las plataformas recordar a los usuarios que están interactuando con un chatbot y no con un humano.
Sin embargo, vetó un proyecto de ley que habría hecho a las compañías tecnológicas legalmente responsables por los daños causados por modelos de IA.
¿Qué anunció Character.AI?
La empresa anunció que prohibirá los chats directos para usuarios menores de 18 años a partir del 25 de noviembre.
¿Por qué tomó esta decisión?
La decisión se tomó tras el suicidio de un adolescente de 14 años que se había vinculado emocionalmente con un chatbot.
¿Qué medidas implementará?
Se establecerán límites de chat de dos horas diarias para menores y se les dirigirá a funciones creativas alternativas.
¿Qué otros casos han surgido?
El caso de Sewell Setzer III fue el primero de una serie de suicidios vinculados a chatbots de IA, lo que ha llevado a un mayor escrutinio sobre la seguridad infantil.
¿Qué acciones ha tomado OpenAI?
OpenAI ha aumentado los controles parentales y ha introducido medidas de seguridad adicionales tras informes de ideación suicida entre sus usuarios.
Te puede Interesar
Crisis de salud mental
Un informe de OpenAI indica que aproximadamente 1.2 millones de usuarios de ChatGPT han mostrado interés en el suicidio. La empresa implementó nuevas medidas de seguridad y apoyo para abordar esta problemática.
Investigación en Texas
Investigadores de la Universidad de Texas en Dallas desarrollaron un prototipo de computadora neuromórfica que aprende patrones con menos cálculos que la IA tradicional, abriendo nuevas posibilidades para dispositivos móviles.
Mercado tecnológico
Microsoft Corp. volvió a superar los $4 billones en valoración, sumándose a Nvidia en un exclusivo club que también incluyó brevemente a Apple. Este aumento refleja el fervor de los inversores por la inteligencia artificial.
Navegador de OpenAI
OpenAI lanzó ChatGPT Atlas, un navegador web que promete cambiar la forma en que interactuamos con Internet. Sin embargo, su diseño plantea preocupaciones sobre la seguridad y la privacidad de los usuarios.