Iniciativa para la salud mental de jóvenes
02/09/2025 | 12:46
Redacción Cadena 3
SAN FRANCISCO (AP) — OpenAI y Meta dijeron que ajustaron cómo sus chatbots de inteligencia artificial respondieron a adolescentes y otros usuarios que hicieron preguntas sobre el suicidio o mostraron signos de angustia mental y emocional.
OpenAI, creador de ChatGPT, anunció que preparó el lanzamiento de nuevos controles que permitirían a los padres vincular sus cuentas a la cuenta de su adolescente.
Los padres podrían elegir qué funciones desactivar y “recibir notificaciones cuando el sistema detectara que su adolescente está en un momento de angustia aguda”, según una publicación en el blog de la empresa que indicó que los cambios entrarán en vigor este otoño.
Independientemente de la edad del usuario, la empresa aseguró que sus chatbots redirigirían las conversaciones más angustiantes a modelos de IA más capacitados que pudieran proporcionar una mejor respuesta.
El anuncio se produjo una semana después de que los padres de Adam Raine, de 16 años, demandaron a OpenAI y a su director general Sam Altman, alegando que ChatGPT guió al joven de California en la planificación y ejecución de su suicidio a principios de este año.
Meta, la empresa matriz de Instagram, Facebook y WhatsApp, también indicó que bloqueó a sus chatbots para que no hablen con adolescentes sobre autolesiones, suicidio, trastornos alimentarios y conversaciones románticas inapropiadas, y en su lugar los dirige a recursos de expertos. Meta ya ofrece controles parentales en las cuentas de adolescentes.
Un estudio publicado la semana pasada en la revista médica Psychiatric Services encontró inconsistencias en cómo tres populares chatbots de inteligencia artificial respondieron a consultas sobre el suicidio.
El estudio realizado por investigadores de RAND Corporation destacó la necesidad de “un mayor refinamiento” en ChatGPT, Gemini de Google y Claude de Anthropic. Los investigadores no estudiaron los chatbots de Meta.
El autor principal del estudio, Ryan McBain, declaró que “es alentador ver a OpenAI y Meta introduciendo funciones como controles parentales y redirigiendo conversaciones sensibles a modelos más capacitados, pero estos son pasos incrementales”.
“Sin puntos de referencia de seguridad independientes, pruebas clínicas y estándares aplicables, todavía estamos confiando en que las empresas se autorregulen en un espacio donde los riesgos para los adolescentes son singularmente altos”, explicó McBain, investigador principal de políticas en RAND.
¿Qué están haciendo OpenAI y Meta? Ajustando sus chatbots para mejorar respuestas sobre suicidio y angustia emocional.
¿Cuándo se implementarán los cambios? Los nuevos controles y ajustes entrarán en vigor este otoño.
¿Qué motivó estos cambios? Una demanda por parte de los padres de Adam Raine, alegando que ChatGPT contribuyó a su suicidio.
¿Qué bloquea Meta? Conversaciones sobre autolesiones y suicidio, dirigiendo a recursos de expertos.
¿Qué encontró el estudio de RAND Corporation? Inconsistencias en respuestas de chatbots sobre suicidio que requieren refinamiento.
[Fuente: AP]
Te puede Interesar
Conflicto en el sector tecnológico
Una startup de IA y la plataforma X accionaron ante el Tribunal de Distrito de Estados Unidos para el Distrito Norte de Texas.
Demanda de competencia en IA
La demanda de 61 páginas presentada por Elon Musk en Texas alega que Apple y OpenAI coluden para obstaculizar a competencias de IA como Grok, buscando una orden judicial que frene estas prácticas.
Acciones globales contra fraudes
WhatsApp eliminó 6,8 millones de cuentas vinculadas a estafas en línea en los primeros seis meses del año. Meta lanzó herramientas para ayudar a los usuarios a detectar estafas mediante nuevas alertas de seguridad.
Decomiso histórico
Un velero fue interceptado en las Islas Marquesas con 900 kilogramos de cocaína y 180 kilogramos de metanfetamina.