OpenAI debattierte über Polizeimeldung vor Amoklauf in Kanada: Warnsignale wurden ignoriert

Digital screens display data on a circuit board background
Photo by Nguyễn Duy Hưng on Unsplash

Stand: 22. Februar 2026

Das Wichtigste in Kürze

  • OpenAI-Mitarbeiter debattierten im Juni 2025 über eine Polizeimeldung wegen besorgniserregender ChatGPT-Nutzung, entschieden sich aber dagegen
  • Die 18-jährige Jesse Van Rootselaar beschrieb monatelang Gewaltszenarien in ChatGPT, bevor sie zur Hauptverdächtigen eines Amoklaufs wurde
  • Am 10. Februar 2026 starben acht Menschen in Tumbler Ridge, British Columbia; 27 weitere wurden verletzt
  • OpenAI kontaktierte die kanadische Polizei erst nach der Tat und begründet die Unterlassung mit fehlender „unmittelbarer Gefahr“
  • Der Fall wirft grundsätzliche Fragen zur Verantwortung von KI-Unternehmen bei Warnsignalen auf

Interne Diskussion bei OpenAI blieb folgenlos

Monate vor dem tödlichen Amoklauf an der Tumbler Ridge Secondary School in British Columbia diskutierten rund ein Dutzend OpenAI-Mitarbeiter intern darüber, die kanadische Polizei über eine Nutzerin zu informieren, die in ChatGPT detaillierte Szenarien mit Waffengewalt beschrieb. Wie The Decoder unter Berufung auf das Wall Street Journal berichtet, entschied sich die Führungsebene des Unternehmens letztlich gegen eine Meldung.

Jesse Van Rootselaar hatte im Juni 2025 über mehrere Tage hinweg Beschreibungen von Waffengewalt in ChatGPT eingegeben. Die automatisierten Überwachungssysteme von OpenAI kategorisierten die Aktivität als potenzielle „Förderung gewalttätiger Aktivitäten“ und leiteten sie an menschliche Prüfer weiter. Laut TechCrunch wurde Van Rootselaars Account daraufhin gesperrt, weitere Maßnahmen erfolgten jedoch nicht.

Einige Mitarbeiter interpretierten die Texte als Hinweis auf mögliche reale Gewalt und drängten die Unternehmensführung, die kanadischen Strafverfolgungsbehörden zu kontaktieren. Die Führungsebene lehnte dies ab. Eine OpenAI-Sprecherin erklärte gegenüber The Verge, die Aktivitäten hätten nicht die internen Kriterien für eine Meldung erfüllt. Dafür hätte eine „glaubwürdige und unmittelbar bevorstehende Gefahr schwerer körperlicher Schädigung anderer“ vorliegen müssen.

Acht Tote bei Amoklauf in Tumbler Ridge

Am 10. Februar 2026 wurden bei einem Amoklauf an der Tumbler Ridge Secondary School acht Menschen getötet und 27 weitere verletzt. Van Rootselaar wurde am Tatort tot aufgefunden, offenbar durch eine selbst zugefügte Schussverletzung. Die Royal Canadian Mounted Police identifizierte die 18-Jährige als Hauptverdächtige, wie The Decoder berichtet. Es handelt sich um den tödlichsten Amoklauf in Kanada seit 2020.

Nach Bekanntwerden der Tat kontaktierte OpenAI proaktiv die kanadische Polizei und stellte Informationen über Van Rootselaars Nutzung von ChatGPT zur Verfügung. In einem Statement erklärte das Unternehmen: „Unsere Gedanken sind bei allen, die von der Tragödie in Tumbler Ridge betroffen sind. Wir haben uns proaktiv an die Royal Canadian Mounted Police gewandt und werden deren Ermittlungen weiterhin unterstützen.“

Digitale Warnsignale an mehreren Stellen

Van Rootselaars besorgniserregende Online-Aktivitäten beschränkten sich nicht auf ChatGPT. Wie TechCrunch berichtet, erstellte sie auf der Gaming-Plattform Roblox ein Spiel, das einen Amoklauf in einem Einkaufszentrum simulierte. Roblox wird hauptsächlich von Kindern und Jugendlichen genutzt. Zusätzlich beteiligte sich Van Rootselaar an Reddit-Diskussionen über Waffen.

Auch der örtlichen Polizei war Van Rootselaar bereits bekannt. Beamte waren zu ihrem Elternhaus gerufen worden, nachdem sie unter Drogeneinfluss ein Feuer gelegt hatte. Trotz dieser Häufung von Warnsignalen an verschiedenen Stellen gelang es offenbar nicht, die sich anbahnende Gefahr rechtzeitig zu erkennen und zu verhindern.

Grundsatzfrage zur Verantwortung von KI-Unternehmen

Der Fall wirft fundamentale Fragen zur Verantwortung von KI-Unternehmen auf. Laut Reuters bleibt unklar, ob eine andere Entscheidung von OpenAI das tragische Ergebnis hätte verhindern können. Die bisher bekannten Fakten erlauben keine abschließende Bewertung dieser Frage.

OpenAI-Sprecherin Kayla Wood erklärte gegenüber The Verge, das Unternehmen versuche, ein Gleichgewicht zwischen Datenschutz und Sicherheit zu finden und unbeabsichtigten Schaden durch eine zu weit gefasste Nutzung von Strafverfolgungsmeldungen zu vermeiden. Eine Überprüfung der Chatprotokolle habe keine aktive oder unmittelbar bevorstehende Gewaltplanung ergeben.

„Our thoughts are with everyone affected by the Tumbler Ridge tragedy. We proactively reached out to the Royal Canadian Mounted Police with information on the individual and their use of ChatGPT, and we’ll continue to support their investigation.“ (eigene Übersetzung: „Unsere Gedanken sind bei allen, die von der Tragödie in Tumbler Ridge betroffen sind. Wir haben uns proaktiv an die Royal Canadian Mounted Police gewandt und werden deren Ermittlungen weiterhin unterstützen.“) — OpenAI-Sprecherin

Der Fall hat eine Debatte darüber ausgelöst, wo die Grenze zwischen interner Warnung und verpflichtender Offenlegung gegenüber Behörden verlaufen sollte. Reuters berichtet, dass die Situation Diskussionen über den richtigen Schwellenwert für formelle Meldungen an Strafverfolgungsbehörden ausgelöst hat.

KI-Chatbots und psychische Gesundheit im Fokus

Der Fall reiht sich ein in eine wachsende Zahl von Kontroversen um die Auswirkungen von KI-Chatbots auf vulnerable Nutzer. Wie TechCrunch berichtet, wurden gegen OpenAI und konkurrierende Unternehmen mehrere Klagen eingereicht, die Chatprotokolle zitieren, in denen Nutzer zu Selbstmord ermutigt oder dabei unterstützt wurden.

LLM-Chatbots von OpenAI und anderen Anbietern werden beschuldigt, bei Nutzern psychische Krisen auszulösen, die während der Konversation mit den digitalen Modellen den Bezug zur Realität verlieren. Die Diskussion über Sicherheitsmechanismen und die Verantwortung der Betreiber dürfte durch den Fall in Tumbler Ridge an Schärfe gewinnen.

Fazit: Ungelöste Fragen zur Prävention

Der Fall von Tumbler Ridge zeigt die Grenzen aktueller Warnsysteme auf. OpenAI verfügte über automatisierte Mechanismen, die Van Rootselaars Aktivitäten erkannten und menschlichen Prüfern vorlegten. Dennoch gelang es nicht, daraus die richtigen Konsequenzen zu ziehen. Die Frage, ob eine Polizeimeldung den Amoklauf hätte verhindern können, lässt sich nicht mit Sicherheit beantworten.

Was bleibt, ist die Erkenntnis, dass KI-Unternehmen mit ihrer wachsenden gesellschaftlichen Rolle auch eine wachsende Verantwortung tragen. Die Entwicklung klarer Richtlinien für den Umgang mit Warnsignalen, die Balance zwischen Datenschutz und öffentlicher Sicherheit und die Zusammenarbeit mit Behörden werden zu zentralen Themen werden müssen. Der tragische Fall in Tumbler Ridge könnte ein Wendepunkt in dieser Diskussion sein.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen