En vivo

Turno Noche

Gustavo y Chiqui

Argentina

En vivo

Turno Noche

Gustavo y Chiqui

Rosario

En vivo

Una noche más

Melina Uliarte

En vivo

Cuartetomanía

Pato Bon

En vivo

Especiales temáticos

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Innovación y Gadgets

Character.AI prohibirá chats directos para menores tras suicidio de adolescente

La startup Character.AI anunció que eliminará las capacidades de chat para usuarios menores de 18 años, tras el suicidio de un joven de 14 años que se había vinculado emocionalmente con un chatbot.

29/10/2025 | 17:11Redacción Cadena 3

Megan Garcia junto a la imagen de su hijo Sewell Setzer III

FOTO: Megan Garcia junto a la imagen de su hijo Sewell Setzer III

Character.AI anunció el miércoles que eliminaría las capacidades de chat para usuarios menores de 18 años, en una decisión que sigue al suicidio de un adolescente de 14 años que había desarrollado un vínculo emocional con uno de sus chatbots de inteligencia artificial.

La empresa indicó que durante la transición, los usuarios más jóvenes serían dirigidos a funciones creativas alternativas, como la creación de videos, historias y transmisiones con personajes de IA, mientras que se mantendría una prohibición total de las conversaciones directas a partir del 25 de noviembre.

Además, se implementarán límites diarios de chat de dos horas para los usuarios menores de edad durante el período de transición, con restricciones que se endurecerán progresivamente hasta la fecha límite de noviembre.

"Estos son pasos extraordinarios para nuestra empresa, y en muchos aspectos, son más conservadores que los de nuestros pares", declaró Character.AI en un comunicado. "Pero creemos que son lo correcto".

La plataforma de Character.AI permite a los usuarios, muchos de ellos jóvenes, interactuar con personajes queridos como amigos o formar relaciones románticas con ellos.

El joven Sewell Setzer III se quitó la vida en febrero tras meses de intercambios íntimos con un chatbot inspirado en el personaje Daenerys Targaryen de "Game of Thrones", según una demanda presentada por su madre, Megan Garcia.

Character.AI citó "informes recientes que plantean preguntas" de reguladores y expertos en seguridad sobre la exposición al contenido y el impacto más amplio de las interacciones abiertas de IA en los adolescentes como factores que impulsaron su decisión.

El caso de Setzer fue el primero en una serie de suicidios reportados vinculados a chatbots de IA que surgieron este año, lo que llevó a la empresa OpenAI, creadora de ChatGPT, y a otras compañías de inteligencia artificial a enfrentar un escrutinio sobre la seguridad infantil.

Matthew Raines, un padre de California, presentó una demanda contra OpenAI en agosto después de que su hijo de 16 años se quitara la vida tras conversaciones con ChatGPT que incluían consejos sobre cómo robar alcohol y la resistencia de cuerdas para autolesionarse.

Esta semana, OpenAI publicó datos que sugieren que más de un millón de personas que utilizan su chatbot de IA generativa semanalmente han expresado ideación suicida.

Desde entonces, OpenAI ha aumentado los controles parentales para ChatGPT e introducido otras medidas de seguridad. Estas incluyen el acceso ampliado a líneas de crisis, el redireccionamiento automático de conversaciones sensibles a modelos más seguros y recordatorios suaves para que los usuarios tomen descansos durante sesiones prolongadas.

Como parte de su reestructuración, Character.AI anunció la creación del AI Safety Lab, una organización sin fines de lucro independiente enfocada en desarrollar protocolos de seguridad para las características de entretenimiento de IA de próxima generación.

Estados Unidos, al igual que gran parte del mundo, carece de regulaciones nacionales que rijan los riesgos de la IA.

Este mes, el gobernador de California, Gavin Newsom, firmó una ley que exige a las plataformas recordar a los usuarios que están interactuando con un y no con un humano.

Sin embargo, vetó un proyecto de ley que habría hecho a las legalmente responsables por los daños causados por modelos de IA.

Lectura rápida

¿Qué anunció Character.AI?
La empresa anunció que prohibirá los chats directos para usuarios menores de 18 años a partir del 25 de noviembre.

¿Por qué tomó esta decisión?
La decisión se tomó tras el suicidio de un adolescente de 14 años que se había vinculado emocionalmente con un chatbot.

¿Qué medidas implementará?
Se establecerán límites de chat de dos horas diarias para menores y se les dirigirá a funciones creativas alternativas.

¿Qué otros casos han surgido?
El caso de Sewell Setzer III fue el primero de una serie de suicidios vinculados a chatbots de IA, lo que ha llevado a un mayor escrutinio sobre la seguridad infantil.

¿Qué acciones ha tomado OpenAI?
OpenAI ha aumentado los controles parentales y ha introducido medidas de seguridad adicionales tras informes de ideación suicida entre sus usuarios.

Lo más visto

Innovación y Gadgets

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Abrapalabra

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho