OpenAI nutzt ChatGPT zur Überwachung von Mitarbeitern: Whistleblower im Visier

Laptop displaying code with an orange mug nearby
Photo by Daniil Komov on Unsplash

Stand: 12. Februar 2026

Das Wichtigste in Kürze

  • OpenAI verwendet eine angepasste ChatGPT-Version, um interne Whistleblower aufzuspüren
  • Das System analysiert Slack-Nachrichten, E-Mails und interne Dokumente, um Quellen von Leaks zu identifizieren
  • Die Praxis erfolgt nach 18 Monaten häufiger Leaks zu Produktplänen und Safety-Protokollen
  • xAI verliert nach SpaceX-Fusion weitere Co-Gründer, während das Mission Alignment Team bei OpenAI aufgelöst wurde
  • SoftBank investiert 41 Milliarden Dollar in OpenAI und profitiert von steigenden Bewertungen

ChatGPT als internes Überwachungsinstrument

OpenAI setzt eine speziell angepasste Version von ChatGPT ein, um interne Informationslecks aufzuspüren und mögliche Whistleblower zu identifizieren. Dies berichtet The Decoder unter Berufung auf The Information, das sich auf eine mit dem Vorgang vertraute Person beruft.

Wenn ein Nachrichtenartikel über interne Vorgänge bei OpenAI erscheint, füttern Sicherheitsmitarbeiter den Text in diese ChatGPT-Version. Das System hat Zugriff auf interne Dokumente sowie Slack-Nachrichten und E-Mails der Mitarbeiter. Es kann dann mögliche Quellen des Lecks vorschlagen, indem es Dateien oder Kommunikationskanäle identifiziert, die die veröffentlichten Informationen enthalten, und zeigt, wer darauf Zugriff hatte.

Ob OpenAI mit dieser Methode tatsächlich schon jemanden überführt hat, ist nicht bekannt. Die Praxis erfolgt nach 18 Monaten häufiger Leaks zu Produkt-Roadmaps, Safety-Protokollen und Finanzen.

„OpenAI verwendet ChatGPT, um interne Slack-Nachrichten zu scrutinisieren, Muster zu identifizieren und zu inferieren, wer sensible Infos teilt.“ (The Information)

Whistleblower unter Druck: Der Fall Suchir Balaji

Die verschärfte Überwachung bei OpenAI erfolgt vor dem Hintergrund prominenter Whistleblower-Fälle. Der ehemalige OpenAI-Mitarbeiter Suchir Balaji, der das Unternehmen wegen ethischer Bedenken bezüglich Copyright-Verstößen beim Training von KI-Modellen verlassen hatte, starb am 26. November 2024 in San Francisco. Die offizielle Todesursache war Suizid.

Balaji hatte in einem Interview mit der New York Times OpenAIs Datensammlung kritisiert und erklärt: „This is not a sustainable model for the internet ecosystem as a whole“ (eigene Übersetzung: „Dies ist kein nachhaltiges Modell für das Internet-Ökosystem als Ganzes“).

OpenAI verteidigte seine Praktiken in einem Statement: „We build our AI models using publicly available data, in a manner protected by fair use […] critical for US competitiveness“ (eigene Übersetzung: „Wir erstellen unsere KI-Modelle mit öffentlich verfügbaren Daten, auf eine durch Fair Use geschützte Weise […] entscheidend für die US-Wettbewerbsfähigkeit“).

Atmosphäre der Paranoia bei OpenAI

Ehemalige Mitarbeiter beschreiben laut The Decoder eine „Paranoia-Atmosphäre“, in der offene Diskussionen durch Überwachungsbewusstsein ersetzt werden. Diese Entwicklung steht im Widerspruch zu OpenAIs ursprünglicher Mission als Non-Profit-Organisation mit Fokus auf „KI zum Wohle aller“.

Unter CEO Sam Altman hat sich das Unternehmen zu einem geheimen Commercial-Player gewandelt. Frühere Vorfälle zeigten bereits die harte Gangart: 2024 verpflichtete OpenAI abgehende Mitarbeiter zu restriktiven NDA- und Non-Disparagement-Verträgen, die mit der Drohung von Equity-Verlusten durchgesetzt wurden. Diese Praxis wurde später nach öffentlicher Kritik revidiert.

OpenAI löst Mission Alignment Team auf

Parallel zur verschärften Überwachung hat OpenAI sein Mission Alignment Team aufgelöst, wie TechCrunch berichtet. Das Team, das im September 2024 gegründet wurde, sollte die Unternehmensmission „künstliche allgemeine Intelligenz (AGI) zum Nutzen aller Menschheit“ fördern und sicherstellen.

Der ehemalige Teamleiter Josh Achiam ist nun „Chief Futurist“ bei OpenAI. In einem Blogpost vom 11. Februar 2026 erklärte er: „My goal is to support OpenAI’s mission — to ensure that artificial general intelligence benefits all of humanity — by studying how the world will change in response to AI, AGI, and beyond“ (eigene Übersetzung: „Mein Ziel ist es, OpenAIs Mission zu unterstützen — sicherzustellen, dass künstliche allgemeine Intelligenz der gesamten Menschheit zugutekommt — indem ich untersuche, wie sich die Welt als Reaktion auf KI, AGI und darüber hinaus verändern wird“).

Ein OpenAI-Sprecher bezeichnete die Auflösung als „Routine-Reorganisation“ in einem schnell wachsenden Unternehmen: „The Mission Alignment project was a support function to help employees and the public understand our mission and the impact of AI. That work continues throughout the organization“ (eigene Übersetzung: „Das Mission Alignment-Projekt war eine Unterstützungsfunktion, um Mitarbeitern und der Öffentlichkeit zu helfen, unsere Mission und die Auswirkungen von KI zu verstehen. Diese Arbeit wird in der gesamten Organisation fortgesetzt“).

xAI verliert weitere Gründungsmitglieder nach SpaceX-Fusion

Während OpenAI mit internen Turbulenzen kämpft, erlebt auch Elon Musks xAI bedeutende Abgänge. Nach der Ankündigung der SpaceX-xAI-Fusion am 2. Februar 2026 haben zwei Co-Gründer und mehrere leitende Mitarbeiter das Unternehmen verlassen, wie The Verge berichtet.

Tony Wu und Jimmy Ba, zwei der ursprünglichen Co-Gründer von xAI, kündigten ihre Departure innerhalb weniger Stunden Anfang Februar an. Wu schrieb auf X, es sei „Zeit für das nächste Kapitel“, während Ba erklärte, es sei Zeit, seinen „Gradienten beim großen Bild neu zu kalibrieren“. Dies bedeutet, dass xAI nun nur noch die Hälfte seiner ursprünglichen 12 Co-Gründer beschäftigt.

Die fusionierte Entität wird mit 1,25 Billionen Dollar bewertet – deutlich höher als die separaten Bewertungen von SpaceX (800 Milliarden Dollar) und xAI (230 Milliarden Dollar).

xAI präsentiert ehrgeizige Raumfahrt-Pläne

Am 11. Februar 2026 veröffentlichte xAI ein 45-minütiges All-Hands-Meeting auf der X-Plattform, das tiefe Einblicke in die Reorganisationspläne offenbart. Laut TechCrunch wurde xAI in vier primäre Teams aufgeteilt: Grok (Voice-aktivierter Chatbot), ein Anwendungs-Codierungssystem, Imagine (Video-Erstellungstool) und Macrohard (Projekt für Computersimulation bis zur Unternehmensmodellierung).

Musk skizzierte ehrgeizige Pläne für orbitale Datenzentren im Umfang von 100-200 Gigawatt pro Jahr, unterstützt durch SpaceX. Er sprach auch von einer Mondstation mit einer elektromagnetischen Katapult („Lunar Mass Driver“) zur Satellitenstartung.

„We are hiring, and we’re looking for intelligent and smart people. This is not an easy place to work … It’s a grind, but we have, I guess, like interstellar ambitions.“ (eigene Übersetzung: „Wir stellen ein und suchen intelligente und kluge Leute. Dies ist kein einfacher Arbeitsplatz … Es ist hart, aber wir haben, wie ich vermute, interstellare Ambitionen.“) – Elon Musk

Toby Pohlen, Leiter des Macrohard-Projekts, erklärte: „[Macrohard] is able to do anything on a computer that a computer is able to do. There should be rocket engines fully designed by AI“ (eigene Übersetzung: „[Macrohard] ist in der Lage, alles auf einem Computer zu tun, was ein Computer tun kann. Es sollte Raketentriebwerke geben, die vollständig von KI entworfen wurden“).

SoftBank setzt massiv auf OpenAI

Während OpenAI und xAI mit internen Herausforderungen kämpfen, demonstriert SoftBank sein Vertrauen in OpenAI durch massive Investitionen. Laut Reuters schloss SoftBank im Dezember 2025 eine Investition von insgesamt 41 Milliarden US-Dollar in OpenAI ab, davon 22,5 Milliarden Dollar im Dezember, und hält nun rund 11 Prozent der Anteile.

Das Unternehmen verhandelt über eine zusätzliche Investition von bis zu 30 Milliarden US-Dollar in OpenAI als Teil einer Finanzierungsrunde von bis zu 100 Milliarden US-Dollar, die OpenAI auf 750 bis 830 Milliarden US-Dollar bewerten würde.

Dank steigender OpenAI-Bewertung erwartet SoftBank für das Quartal Oktober bis Dezember 2025 einen Gewinnschub, inklusive Buchgewinnen von circa 4,45 Milliarden US-Dollar aus der Dezember-Tranche. SoftBank finanzierte dies durch Verkäufe wie Nvidia-Anteile (5,8 Milliarden US-Dollar) und T-Mobile-Beteiligung (9,17 Milliarden US-Dollar), sowie Kredite gegen Arm-Holdings-Anteile.

Rechtliche und ethische Einordnung

Die Verwendung von KI zur Mitarbeiterüberwachung markiert einen Paradigmenwechsel in der Tech-Branche. OpenAI wendet sein eigenes Tool gegen Mitarbeiter, was einen Konflikt zwischen Überwachung und Whistleblower-Schutz darstellt – ironisch für einen Pionier der „offenen“ KI.

Rechtlich ist die Praxis in Kalifornien erlaubt, wo Monitoring auf Firmensystemen mit entsprechender Benachrichtigung gestattet ist. Doch KI-gestützte Inferenz von Absichten und Stimmungen geht über bestehende rechtliche Frameworks hinaus. Die Electronic Frontier Foundation (EFF) warnt vor „chilling effects“ auf die freie Meinungsäußerung.

IP-Anwalt Bradley Hulbert kommentierte: „Given that AI is evolving so quickly, it is time for Congress to step in“ (eigene Übersetzung: „Angesichts der Tatsache, dass sich KI so schnell entwickelt, ist es an der Zeit, dass der Kongress eingreift“).

Fazit: Wachsende Spannungen in der KI-Branche

Die jüngsten Entwicklungen bei OpenAI und xAI zeigen wachsende Spannungen zwischen Transparenz und Geheimhaltung, zwischen Whistleblower-Schutz und Unternehmensinteressen. Die Verwendung von ChatGPT zur internen Überwachung signalisiert eine Normalisierung von KI-gestützter Kontrolle, die möglicherweise regulatorische Maßnahmen erforderlich macht.

Gleichzeitig demonstrieren die massiven Investitionen von SoftBank und die ehrgeizigen Raumfahrt-Pläne von xAI, dass der Wettlauf um KI-Dominanz unvermindert weitergeht. Die Frage bleibt, ob diese Entwicklungen im Einklang mit den ursprünglichen Missionen stehen, KI „zum Wohle aller Menschheit“ zu entwickeln.

Die Auflösung des Mission Alignment Teams bei OpenAI und der Exodus von Gründungsmitgliedern bei xAI deuten darauf hin, dass der Druck, im KI-Wettrennen mitzuhalten, möglicherweise auf Kosten von Safety-Strukturen und ethischen Überlegungen geht.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen