OpenAI y Meta ajustan chatbots para ayudar a adolescentes en crisis
OpenAI y Meta trabajan en mejorar chatbots para ayudar a adolescentes en crisis, ajustando las respuestas a quienes consultan sobre suicidio y angustia emocional. Los cambios se implementarán este otoño.
02/09/2025 | 12:46Redacción Cadena 3
SAN FRANCISCO (AP) — OpenAI y Meta dijeron que ajustaron cómo sus chatbots de inteligencia artificial respondieron a adolescentes y otros usuarios que hicieron preguntas sobre el suicidio o mostraron signos de angustia mental y emocional.
OpenAI, creador de ChatGPT, anunció que preparó el lanzamiento de nuevos controles que permitirían a los padres vincular sus cuentas a la cuenta de su adolescente.
Los padres podrían elegir qué funciones desactivar y “recibir notificaciones cuando el sistema detectara que su adolescente está en un momento de angustia aguda”, según una publicación en el blog de la empresa que indicó que los cambios entrarán en vigor este otoño.
Independientemente de la edad del usuario, la empresa aseguró que sus chatbots redirigirían las conversaciones más angustiantes a modelos de IA más capacitados que pudieran proporcionar una mejor respuesta.
El anuncio se produjo una semana después de que los padres de Adam Raine, de 16 años, demandaron a OpenAI y a su director general Sam Altman, alegando que ChatGPT guió al joven de California en la planificación y ejecución de su suicidio a principios de este año.
Meta, la empresa matriz de Instagram, Facebook y WhatsApp, también indicó que bloqueó a sus chatbots para que no hablen con adolescentes sobre autolesiones, suicidio, trastornos alimentarios y conversaciones románticas inapropiadas, y en su lugar los dirige a recursos de expertos. Meta ya ofrece controles parentales en las cuentas de adolescentes.
Un estudio publicado la semana pasada en la revista médica Psychiatric Services encontró inconsistencias en cómo tres populares chatbots de inteligencia artificial respondieron a consultas sobre el suicidio.
El estudio realizado por investigadores de RAND Corporation destacó la necesidad de “un mayor refinamiento” en ChatGPT, Gemini de Google y Claude de Anthropic. Los investigadores no estudiaron los chatbots de Meta.
El autor principal del estudio, Ryan McBain, declaró que “es alentador ver a OpenAI y Meta introduciendo funciones como controles parentales y redirigiendo conversaciones sensibles a modelos más capacitados, pero estos son pasos incrementales”.
“Sin puntos de referencia de seguridad independientes, pruebas clínicas y estándares aplicables, todavía estamos confiando en que las empresas se autorregulen en un espacio donde los riesgos para los adolescentes son singularmente altos”, explicó McBain, investigador principal de políticas en RAND.
Lectura rápida
¿Qué están haciendo OpenAI y Meta? Ajustando sus chatbots para mejorar respuestas sobre suicidio y angustia emocional.
¿Cuándo se implementarán los cambios? Los nuevos controles y ajustes entrarán en vigor este otoño.
¿Qué motivó estos cambios? Una demanda por parte de los padres de Adam Raine, alegando que ChatGPT contribuyó a su suicidio.
¿Qué bloquea Meta? Conversaciones sobre autolesiones y suicidio, dirigiendo a recursos de expertos.
¿Qué encontró el estudio de RAND Corporation? Inconsistencias en respuestas de chatbots sobre suicidio que requieren refinamiento.
[Fuente: AP]




