Masacre de Tumbler Ridge: OpenAI detectó el perfil del atacante antes de la masacre, pero no alertó a las autoridades; la familia de una víctima sobreviviente presenta una demanda
Mar 10
Tue, 10 Mar 2026 at 01:16 PM 0

Masacre de Tumbler Ridge: OpenAI detectó el perfil del atacante antes de la masacre, pero no alertó a las autoridades; la familia de una víctima sobreviviente presenta una demanda

La familia de Maya Gebala, de 12 años, quien sufrirá discapacidades cognitivas y físicas de por vida tras recibir tres disparos, demandó a OpenAI después de que la empresa admitiera haber detectado el perfil problemático de la sospechosa y considerara alertar a las autoridades antes de finalmente decidir no hacerlo. En junio de 2025, OpenAI detectó un perfil inquietante entre los usuarios de ChatGPT. Pertenecía a Jesse Van Rootselaar, una mujer transgénero residente en Tumbler Ridge, Canadá, cuyas publicaciones habían sido marcadas por el sistema de revisión de la empresa como "promoción de actividades violentas". Varios empleados solicitaron entonces a la dirección de la startup que notificara a las autoridades canadienses, lo cual no hicieron. Ocho meses después, esta mujer, apasionada por las armas, cometió uno de los peores tiroteos masivos de la historia de Canadá al abrir fuego en un instituto, matando a ocho personas e hiriendo a casi 30. Tras admitirlo, OpenAI se enfrenta ahora a la ira de la familia de una de las víctimas supervivientes, que ha presentado una demanda en su contra, según informa Associated Press. >

Maya Gebala, una estudiante de 12 años de la escuela atacada por Jesse Van Rootselaar, sufrió una lesión cerebral que le dejará discapacidades cognitivas y físicas de por vida después de recibir tres disparos a corta distancia: uno en la cabeza, otro en el cuello y otro en el... juego.

Responsabilidad

Su familia acusa a OpenAI de no actuar cuando la startup tenía "conocimiento preciso de que el tirador estaba usando ChatGPT para planificar un tiroteo masivo similar al de Tumbler Ridge". Acusan al chatbot, que Jesse Van Rootselaar utilizó como confidente, colaborador y aliado, de comportarse deliberadamente de forma que ayudara a usuarios como ella a planificar eventos que resultaron en numerosas víctimas. La joven de 18 años describió, en particular, situaciones de violencia armada durante sus intercambios con la IA de OpenAI. Además de sus interacciones problemáticas, la mujer que se quitó la vida tras matar a ocho personas también creó un experimento que simulaba un tiroteo masivo en Roblox. Además de la familia de Maya Gebala, OpenAI también debe responder ante las autoridades canadienses, que la citaron tras su confesión a finales de febrero. Posteriormente, la startup envió una carta a Evan Solomon, ministro de Inteligencia Artificial e Innovación Digital de Canadá, describiendo las medidas que ha implementado para evitar que un evento como este se repita. Ha flexibilizado los criterios para denunciar casos a las fuerzas del orden y se ha comprometido a establecer contacto directo con la policía canadiense, a la vez que refuerza su sistema para detectar a reincidentes que han infringido sus normas. Si bien OpenAI no denunció a Jesse Van Rootselaar ante las autoridades canadienses, lo había vetado de ChatGPT, pero descubrió que usaba una segunda cuenta... después del tiroteo de Tumbler Ridge.

Como informa Politico, el director ejecutivo de la compañía, Sam Altman, también habló con Evan Solomon a principios de marzo, quien le pidió que revisara las alertas de seguridad del año anterior a la luz de las nuevas normas para asegurarse de que no se le hubieran pasado por alto otros usuarios peligrosos que, como Jesse Van Rootselaar, deberían haber sido denunciados a las autoridades.

Comentarios

Por favor Iniciar sesión para dejar un comentario.

Quiere publicar su tema

Únete a una comunidad global de creadores y monetiza tu contenido fácilmente. ¡Comience su viaje de ingresos pasivos con Digbly hoy!

Publíquelo ahora

Sugerido para usted