Mar 10
Tue, 10 Mar 2026 at 01:16 PM 0
Massaker von Tumbler Ridge: OpenAI erkannte das Profil des Angreifers vor dem Massaker, versäumte es aber, die Behörden zu alarmieren; Familie eines Überlebenden reicht Klage ein
Die Familie der zwölfjährigen Maya Gebala, die nach drei Schussverletzungen lebenslang kognitive und körperliche Behinderungen erleiden wird, hat OpenAI verklagt. Das Unternehmen hatte zuvor eingeräumt, das problematische Profil der Verdächtigen bemerkt und erwogen zu haben, die Behörden zu informieren, sich aber letztendlich dagegen entschieden zu haben. Im Juni 2025 entdeckte OpenAI ein beunruhigendes Profil unter den Nutzern von ChatGPT. Es gehörte Jesse Van Rootselaar, einer Transfrau aus Tumbler Ridge, Kanada. Ihre Beiträge waren vom Bewertungssystem des Unternehmens als „Anstiftung zu Gewalt“ gekennzeichnet worden. Mehrere Mitarbeiter forderten daraufhin die Geschäftsleitung des Startups auf, die kanadischen Behörden zu benachrichtigen, was diese jedoch unterließ. Acht Monate später verübte die Frau, die eine Leidenschaft für Waffen hatte, eines der schlimmsten Massaker in der kanadischen Geschichte, indem sie in einer High School das Feuer eröffnete, acht Menschen tötete und fast 30 verletzte. Nach diesem Eingeständnis sieht sich OpenAI nun dem Zorn der Familie eines der überlebenden Opfer ausgesetzt, die Klage eingereicht hat, wie die Associated Press berichtet. Maya Gebala, eine 12-jährige Schülerin der von Jesse Van Rootselaar angegriffenen Schule, erlitt eine Hirnverletzung, die ihr lebenslange kognitive und körperliche Behinderungen hinterlassen wird, nachdem sie aus nächster Nähe dreimal angeschossen wurde: einmal in den Kopf, einmal in den Hals und einmal in den Bauch. Ihre Familie wirft OpenAI vor, nicht gehandelt zu haben, obwohl das Startup „genau wusste, dass der Schütze ChatGPT nutzte, um einen Massenmord ähnlich dem in Tumbler Ridge zu planen“. Sie werfen dem Chatbot, den Jesse Van Rootselaar als Vertrauten, Mitarbeiter und Verbündeten nutzte, vor, sich absichtlich so verhalten zu haben, dass Nutzerinnen wie sie Anschläge mit zahlreichen Opfern planen konnten. Die 18-Jährige hatte in ihren Chats mit der KI von OpenAI insbesondere Szenarien mit Waffengewalt beschrieben. Zusätzlich zu ihren problematischen Interaktionen hatte die Frau, die sich nach dem Mord an acht Menschen das Leben nahm, auch ein Experiment erstellt, das einen Massenmord auf Roblox simulierte. Neben Maya Gebalas Familie muss sich OpenAI auch vor den kanadischen Behörden verantworten, die sie nach ihrem Geständnis Ende Februar vorgeladen hatten. Das Startup schickte daraufhin einen Brief an Evan Solomon, Kanadas Minister für Künstliche Intelligenz und Digitale Innovation, in dem es die Maßnahmen darlegte, die es ergriffen hat, um ein erneutes Auftreten eines solchen Ereignisses zu verhindern. Es hat die Kriterien für die Meldung von Konten an die Strafverfolgungsbehörden gelockert und sich verpflichtet, direkten Kontakt zur kanadischen Polizei aufzunehmen und gleichzeitig sein System zur Erkennung von Wiederholungstätern, die gegen seine Regeln verstoßen haben, zu stärken. OpenAI meldete Jesse Van Rootselaar zwar nicht den kanadischen Behörden, hatte ihn aber von ChatGPT gesperrt. Nach dem Amoklauf in Tumbler Ridge entdeckte das Unternehmen jedoch, dass er einen Zweitaccount nutzte. Wie Politico berichtet, sprach der CEO des Unternehmens, Sam Altman, Anfang März auch mit Evan Solomon. Dieser bat ihn, die Sicherheitswarnungen des Vorjahres im Hinblick auf die neuen Regeln zu überprüfen, um sicherzustellen, dass er keine anderen gefährlichen Nutzer übersehen hatte, die – wie Jesse Van Rootselaar – den Strafverfolgungsbehörden hätten gemeldet werden müssen.
Bitte Login einen Kommentar hinterlassen.
Möchten Sie Ihr Thema veröffentlichen?
Treten Sie einer globalen Community von Erstellern bei und monetarisieren Sie Ihre Inhalte ganz einfach. Beginnen Sie noch heute Ihre Reise zum passiven Einkommen mit Digbly!
Jetzt posten
Kommentare