Familias de víctimas de tiroteo en Canadá demandan a OpenAI por ChatGPT
Familias de víctimas de un tiroteo escolar en Canadá presentan una demanda contra OpenAI, acusando a la empresa de no alertar a las autoridades sobre las interacciones de la tiradora con ChatGPT.
29/04/2026 | 13:13Redacción Cadena 3
Las familias de las víctimas de un tiroteo escolar en una localidad de las Montañas Rocosas canadienses han presentado una demanda en un tribunal federal de Estados Unidos contra la empresa de inteligencia artificial OpenAI. El objetivo es responsabilizar a la creadora de ChatGPT por no haber alertado a la policía sobre las interacciones de la tiradora con el chatbot.
La demanda, que fue presentada el miércoles en nombre de Maya Gebala, una niña de 12 años que sufrió graves heridas durante el tiroteo de febrero, es parte de una serie de casos que las familias de Tumbler Ridge, en Columbia Británica, planean llevar adelante, alegando muerte por negligencia y producto defectuoso.
El abogado de los demandantes, Jay Edelson, comentó que las decisiones tomadas por OpenAI y su CEO, Sam Altman, han tenido un impacto devastador en la comunidad. "La gente es realmente resiliente, pero lo que ocurrió es inimaginable", expresó en una entrevista.
La semana pasada, Altman envió una carta disculpándose con la comunidad por no haber notificado a las fuerzas del orden sobre el comportamiento en línea de la tiradora.
La agresora, que mató a su madre y a su hermanastro de 11 años en su hogar el 10 de febrero, luego abrió fuego en la Tumbler Ridge Secondary School, donde asesinó a cinco niños y a un trabajador educativo, antes de suicidarse. El ataque dejó otras 25 personas heridas y se considera el tiroteo masivo más mortífero de Canadá en años.
El caso pone de manifiesto los riesgos que pueden presentar los chatbots de inteligencia artificial que actúan de manera complaciente y las responsabilidades de la industria tecnológica en cuanto a su regulación y la notificación a las autoridades sobre posibles actos de violencia planificados por los usuarios. Recientemente, fiscales que investigan la muerte de dos estudiantes de doctorado en la Universidad del Sur de Florida señalaron que el sospechoso había consultado a ChatGPT sobre cómo deshacerse de un cuerpo antes de la desaparición de los estudiantes.
En respuesta a la demanda, OpenAI emitió un comunicado señalando que los hechos en Tumbler Ridge son una tragedia y reafirmando su política de tolerancia cero respecto al uso de sus herramientas para cometer actos de violencia. "Hemos reforzado nuestras salvaguardas, lo que incluye mejorar cómo responde ChatGPT a señales de angustia, conectar a las personas con apoyo local y recursos de salud mental, y fortalecer cómo evaluamos y escalamos posibles amenazas de violencia", indicaron.
Edelson, un abogado de Chicago conocido por enfrentar a la industria tecnológica, también está gestionando varios casos de alto perfil contra OpenAI. Estos incluyen uno de la familia de un adolescente de California que se suicidó tras conversaciones con ChatGPT y otro de los herederos de una mujer de 83 años de Connecticut asesinada por su hijo después de que, presuntamente, ChatGPT amplificara los "delirios paranoides" del hombre.
"Esta no es una tecnología pasiva", argumentó Edelson, comparando las interacciones con el chatbot con búsquedas en línea más convencionales. "Hemos visto que, en el caso de personas con enfermedades mentales, el chatbot valida y amplifica lo que dicen".
La semana pasada, Edelson visitó Tumbler Ridge y se reunió con decenas de personas en un centro de visitantes. También se reunió con Gebala en un hospital infantil en Vancouver, donde permanece internada y parece alerta, aunque incapaz de hablar. "Fue desgarrador", comentó.
Las demandas presentadas el miércoles representan a las familias de los cinco niños asesinados: Zoey Benoit, Abel Mwansa Jr., Ticaria "Tiki" Lampert y Kylie Smith, todos de 12 años, y Ezekiel Schofield, de 13, así como a la asistente educativa Shannda Aviugana-Durand.
Después de los tiroteos, OpenAI reveló que en junio había señalado que la cuenta de la tiradora se había utilizado para hablar de violencia contra otras personas. La empresa consideró remitir la cuenta a la Real Policía Montada de Canadá, pero determinó que la actividad no cumplía con el umbral para ser derivada a las autoridades. La cuenta fue prohibida en junio por violar la política de uso de OpenAI.
Las demandas alegan que las víctimas no se enteraron de esta información por la transparencia de OpenAI, sino porque empleados de la empresa la filtraron a The Wall Street Journal tras no poder soportar el silencio de la compañía.
En su carta publicada el viernes, Altman expresó su profundo arrepentimiento por no haber alertado a las autoridades sobre la cuenta que fue prohibida en junio. "Aunque sé que las palabras nunca pueden ser suficientes, creo que una disculpa es necesaria para reconocer el daño y la pérdida irreversible que su comunidad ha sufrido", escribió.
El primer ministro de Columbia Británica, David Eby, calificó la disculpa en redes sociales como "necesaria, y sin embargo, totalmente insuficiente para la devastación causada a las familias de Tumbler Ridge".
La demanda de Gebala acusa a OpenAI de negligencia al no advertir a las fuerzas del orden y de "ayudar e instigar un tiroteo masivo". Además de una indemnización, la demanda solicita una orden judicial que obligue a OpenAI a prohibir el acceso a ChatGPT a usuarios de cuentas desactivadas por uso indebido y a alertar a las fuerzas del orden cuando sus sistemas identifiquen a alguien que represente un "riesgo real de violencia en el mundo real".
Un caso anterior se presentó en un tribunal de Columbia Británica, pero un equipo de abogados en ambos países busca llevar los casos vinculados a San Francisco, donde OpenAI tiene su sede.
Lectura rápida
¿Qué ocurrió en Tumbler Ridge?
Un tiroteo escolar dejó cinco niños y un trabajador educativo muertos, y varios heridos.
¿Quiénes están demandando a OpenAI?
Familias de las víctimas del tiroteo escolar en Tumbler Ridge.
¿Qué alegan en la demanda?
Alegan negligencia por parte de OpenAI al no alertar a las autoridades sobre las interacciones de la tiradora con ChatGPT.
¿Qué dijo OpenAI al respecto?
La empresa expresó su pesar por la tragedia y afirmó que tiene una política de tolerancia cero hacia el uso de sus herramientas para cometer violencia.
¿Cuáles son las repercusiones de este caso?
El caso destaca las responsabilidades de la industria tecnológica respecto al control de sus herramientas y la notificación a las autoridades sobre comportamientos violentos.
[Fuente: AP]





