OpenAI lanza 'Contacto de Confianza' para prevenir el suicidio en ChatGPT
La nueva función de OpenAI permite a los usuarios de ChatGPT designar a un contacto de confianza que será notificado en casos de autolesiones. Esta medida busca mejorar la seguridad de los usuarios en la plataforma.
07/05/2026 | 17:54Redacción Cadena 3
El pasado jueves, OpenAI anunció una nueva funcionalidad denominada Contacto de Confianza, diseñada para alertar a un tercero de confianza si se mencionan autolesiones durante una conversación. Esta característica permite a los usuarios adultos de ChatGPT designar a otra persona, como un amigo o familiar, como contacto de confianza dentro de su cuenta. En situaciones donde una conversación pueda tornarse hacia la autolesión, OpenAI ahora alentará al usuario a comunicarse con dicho contacto, además de enviar una alerta automatizada a este último, instándolo a chequear el estado del usuario.
La compañía ha enfrentado una serie de demandas por parte de familias de personas que se han suicidado tras interactuar con su chatbot. En varios casos, los familiares afirman que ChatGPT les animó a sus seres queridos a quitarse la vida, o incluso ayudó a planearlo.
Actualmente, OpenAI utiliza una combinación de automatización y revisión humana para manejar incidentes potencialmente dañinos. Ciertos disparadores conversacionales alertan al sistema de la compañía sobre ideaciones suicidas, que luego son comunicadas a un equipo de seguridad humano. La empresa asegura que cada vez que recibe este tipo de notificación, el incidente es revisado por un humano. "Nos esforzamos por revisar estas notificaciones de seguridad en menos de una hora", afirmó la compañía.
Si el equipo interno de OpenAI determina que la situación representa un riesgo serio para la seguridad, ChatGPT procede a enviar una alerta al contacto de confianza, ya sea por correo electrónico, mensaje de texto o notificación dentro de la aplicación. La alerta está diseñada para ser breve y alentar al contacto a comunicarse con la persona en cuestión. No incluye información detallada sobre lo que se discutía, como medio de proteger la privacidad del usuario, según indica la compañía.
La función de Contacto de Confianza sigue las salvaguardias que la empresa introdujo el pasado septiembre, que otorgaban a los padres la capacidad de tener cierta supervisión sobre las cuentas de sus hijos adolescentes, incluyendo la recepción de notificaciones de seguridad diseñadas para alertar a los padres si el sistema de OpenAI cree que su hijo enfrenta un "riesgo serio para la seguridad". Desde hace un tiempo, ChatGPT también incluye alertas automáticas para buscar servicios de salud profesional, si una conversación tiende hacia el tema de la autolesión.
Es importante destacar que el Contacto de Confianza es opcional y, aunque la protección esté activada en una cuenta en particular, cualquier usuario puede tener múltiples cuentas de ChatGPT. Las herramientas de control parental de OpenAI también son opcionales, presentando una limitación similar.
"El Contacto de Confianza es parte del esfuerzo más amplio de OpenAI por construir sistemas de IA que ayuden a las personas en momentos difíciles", escribió la compañía en el comunicado de anuncio. "Continuaremos trabajando con clínicos, investigadores y responsables de políticas para mejorar cómo los sistemas de IA responden cuando las personas pueden estar experimentando angustia".
Lectura rápida
¿Qué es el Contacto de Confianza?
Una función de OpenAI que permite alertar a un tercero si se detectan menciones de autolesiones en ChatGPT.
¿Cómo funciona?
Los usuarios pueden designar a un contacto de confianza que recibirá alertas automáticas en caso de riesgo de autolesión.
¿Por qué se implementó?
Ante una serie de demandas por suicidios relacionados con ChatGPT, OpenAI busca mejorar la seguridad de sus usuarios.
¿Qué medidas adicionales se están tomando?
La compañía combina automatización y revisión humana para manejar incidentes potencialmente dañinos.
¿Es opcional el Contacto de Confianza?
Sí, los usuarios pueden optar por activarlo y pueden tener múltiples cuentas de ChatGPT.





