Masacrul de la Tumbler Ridge: OpenAI a detectat profilul atacatorului înainte de masacru, dar nu a alertat autoritățile; familia unei victime supraviețuitoare depune un proces.
Mar 10
Tue, 10 Mar 2026 at 01:21 PM 0

Masacrul de la Tumbler Ridge: OpenAI a detectat profilul atacatorului înainte de masacru, dar nu a alertat autoritățile; familia unei victime supraviețuitoare depune un proces.

Familia Mayei Gebala, în vârstă de 12 ani, care va suferi dizabilități cognitive și fizice pe viață după ce a fost împușcată de trei ori, a dat în judecată OpenAI după ce compania a recunoscut că a observat profilul problematic al suspectului și a luat în considerare alertarea autorităților înainte de a decide în cele din urmă împotriva acestuia. În iunie 2025, OpenAI a observat un profil tulburător în rândul utilizatorilor ChatGPT. Acesta aparținea lui Jesse Van Rootselaar, o femeie transgender care locuia în Tumbler Ridge, Canada, ale cărei postări fuseseră semnalate de sistemul de evaluare al companiei ca „promovând activități violente”. Mai mulți angajați au solicitat apoi conducerii startup-ului să notifice autoritățile canadiene, lucru pe care acesta nu l-a făcut. Opt luni mai târziu, această femeie, care avea o pasiune pentru arme, a comis unul dintre cele mai grave atacuri armate în masă din istoria Canadei, deschizând focul într-un liceu, ucigând opt persoane și rănind aproape 30. În urma recunoașterii sale, OpenAI se confruntă acum cu mânia familiei uneia dintre victimele supraviețuitoare, care a intentat un proces împotriva sa, relatează Associated Press. >

Maya Gebala, o elevă de 12 ani de la școala vizată de Jesse Van Rootselaar, a suferit o leziune cerebrală care o va lăsa cu dizabilități cognitive și fizice pe viață, după ce a fost împușcată de trei ori de la mică distanță: o dată în cap, o dată în gât și o dată în... piesa de teatru.

Responsabilitate

Familia ei acuză OpenAI că nu a acționat atunci când startup-ul avea „cunoștințe precise că atacatorul folosea ChatGPT pentru a planifica o împușcătură în masă similară cu cea de la Tumbler Ridge”. Aceștia acuză chatbot-ul, pe care Jesse Van Rootselaar l-a folosit drept confident, colaborator și aliat, că s-a comportat în mod deliberat într-un mod care i-a ajutat pe utilizatori ca ea să planifice evenimente care au dus la numeroase victime.

Tânăra de 18 ani a descris în mod special scenarii care implică violență armată în timpul interacțiunilor sale cu inteligența artificială a OpenAI. Pe lângă interacțiunile sale problematice, femeia care s-a sinucis după ce a ucis opt persoane a creat și un experiment care simula un atac armat în masă pe Roblox. Pe lângă familia Mayei Gebala, OpenAI trebuie să răspundă și autorităților canadiene, care au chemat-o după mărturisirea sa de la sfârșitul lunii februarie. Startup-ul a trimis ulterior o scrisoare lui Evan Solomon, ministrul Inteligenței Artificiale și Inovării Digitale din Canada, subliniind măsurile pe care le-a implementat pentru a preveni repetarea unui astfel de eveniment. A relaxat criteriile de raportare a conturilor către forțele de ordine și s-a angajat să stabilească un contact direct cu poliția canadiană, consolidând în același timp sistemul său de detectare a recidiviștilor care au încălcat regulile sale. Deși OpenAI nu l-a raportat pe Jesse Van Rootselaar autorităților canadiene, l-a interzis accesul la ChatGPT, dar a descoperit că folosea un al doilea cont... după împușcăturile de la Tumbler Ridge.

După cum relatează Politico, CEO-ul companiei, Sam Altman, a vorbit și cu Evan Solomon la începutul lunii martie, care i-a cerut să revizuiască alertele de siguranță din anul precedent în lumina noilor reguli pentru a se asigura că nu a trecut cu vederea alți utilizatori periculoși care, precum Jesse Van Rootselaar, ar fi trebuit raportați forțelor de ordine.

Comentarii

Vă rog Log in sa lasi un comentariu.

Vrei să postezi subiectul tău

Alăturați-vă unei comunități globale de creatori, monetizați-vă cu ușurință conținutul. Începeți călătoria cu veniturile pasive cu Digbly astăzi!

Postează acum

Sugerat pentru tine