
Stand: 7. März 2026
Das Wichtigste in Kürze
- Das Pentagon hat Anthropic am 5. März 2026 offiziell als Supply-Chain-Risiko eingestuft – erstmals ein US-Unternehmen
- CEO Dario Amodei kündigt rechtliche Schritte an und bezeichnet die Maßnahme als „rechtlich nicht fundiert“
- Auslöser: Anthropic lehnte uneingeschränkte militärische Nutzung von Claude für Massenüberwachung und autonome Waffen ab
- OpenAI schloss parallel einen Pentagon-Vertrag ab, woraufhin ChatGPT-Deinstallationen um 295 % anstiegen
- Trotz Designation nutzt das US-Militär Claude weiterhin in aktiven Operationen
In einem beispiellosen Schritt hat das US-Verteidigungsministerium das kalifornische KI-Unternehmen Anthropic offiziell als Risiko für die nationale Lieferkette klassifiziert. Die Designation, die laut TechCrunch am 5. März 2026 erfolgte, ist das erste Mal, dass diese Klassifizierung gegen ein US-amerikanisches Technologieunternehmen verhängt wurde – eine Maßnahme, die bislang ausschließlich ausländischen Konkurrenten wie Huawei vorbehalten war.
Der Konflikt um ethische Grenzen in der KI-Nutzung
Der Streit zwischen Anthropic und dem Pentagon schwelt bereits seit Wochen und entzündete sich an einer grundsätzlichen Frage: Wie viel Kontrolle sollte das Militär über kommerzielle KI-Systeme haben? Nach Angaben von Mayer Brown forderte das Verteidigungsministerium uneingeschränkten Zugriff auf Anthropics Claude-Modelle für „alle rechtmäßigen Zwecke“.
Anthropic-CEO Dario Amodei weigerte sich jedoch, zwei zentrale Nutzungsbeschränkungen aus der Acceptable Use Policy (AUP) des Unternehmens aufzuheben: das Verbot von Massenüberwachung amerikanischer Bürger und den Einsatz vollautonomer Waffensysteme ohne menschliche Kontrolle bei Zielauswahl und Feuerbefehlen.
„Die Firma würde ihre Technologie nicht für Massenüberwachung oder autonome Waffen erlauben und wolle klare Verbote im Vertrag.“
— Dario Amodei, CEO Anthropic
Das Pentagon argumentiert seinerseits, wie CBS News berichtet, dass das Militär Technologie für alle rechtmäßigen Zwecke nutzen können müsse und private Unternehmen nicht in die militärische Befehlskette eingreifen dürften.
Rechtliche Schritte und Einordnung der Designation
In einer Stellungnahme kündigte Amodei an, die Supply-Chain-Risk-Designation vor Gericht anzufechten. „Wir halten diese Maßnahme rechtlich für nicht haltbar und sehen uns gezwungen, sie vor Gericht herauszufordern“, erklärte er laut TechCrunch.
Die rechtliche Grundlage der Designation ist der Federal Acquisition Supply Chain Security Act (FASCSA) von 2018. Dieser soll normalerweise die Lieferkette bei Regierungsverträgen schützen – nicht kommerzielle Aktivitäten außerhalb des militärischen Kontexts einschränken. Amodei argumentiert in seiner Stellungnahme:
„Mit Blick auf unsere Kunden gilt die Designation eindeutig nur für die Nutzung von Claude durch Kunden im Rahmen direkter Verträge mit dem Verteidigungsministerium, nicht für jede Nutzung von Claude durch Kunden, die solche Verträge haben.“
— Dario Amodei
Die Designation verpflichtet Rüstungsunternehmen und Pentagon-Auftragnehmer zu zertifizieren, dass sie Anthropics Claude-Modelle nicht in ihrer Arbeit für das Verteidigungsministerium nutzen. Präsident Trump ordnete laut Mayer Brown allen Bundesbehörden an, die Nutzung von Anthropic-Technologie einzustellen – mit einer sechsmonatigen Übergangsfrist.
Paradoxe Situation: Militär nutzt Claude weiterhin
Trotz der offiziellen Designation und der regierungsweiten Nutzungsuntersagung setzt das US-Militär Claude weiterhin ein. Nach Informationen von TechCrunch nutzen amerikanische Streitkräfte das KI-System sowohl bei Operationen gegen den Iran als auch in anderen Einsätzen. Claude ist in Palantirs Maven Smart System integriert, das militärische Operateure im Nahen Osten zur schnellen Datenverarbeitung verwenden.
Diese paradoxe Situation unterstreicht die Brisanz des Konflikts: Das Pentagon stuft Anthropic als Risiko ein, ist aber gleichzeitig operativ von dessen Technologie abhängig. Claude war bis zu diesem Zeitpunkt das einzige Frontier-Modell, das für geheime Netzwerke zugelassen war – ein Status, den es seit Juli 2025 besaß.
OpenAI als Gewinner, ChatGPT-Nutzer als Verlierer
Während der Konflikt eskalierte, schloss OpenAI einen Deal mit dem Pentagon ab und akzeptierte die vom Verteidigungsministerium geforderten Bedingungen für „alle rechtmäßigen Zwecke“. Die Reaktion der Nutzer ließ nicht lange auf sich warten: Laut TechCrunch stiegen ChatGPT-Deinstallationen um 295 Prozent.
Auch innerhalb von OpenAI regte sich Widerstand. Hunderte von Mitarbeitern von OpenAI und Google forderten das Pentagon auf, die Designation gegen Anthropic zurückzuziehen, und kritisierten die möglicherweise unangemessene Anwendung staatlicher Autorität gegen ein amerikanisches Technologieunternehmen.
Kritik aus Politik und Verteidigungskreisen
Die Designation stößt auch außerhalb der Tech-Branche auf scharfe Kritik. Eine Gruppe ehemaliger Verteidigungsbeamter und Geheimdienstchefs – darunter der frühere CIA-Direktor Michael Hayden – schrieb einen kritischen Brief an Gesetzgeber. Sie beschrieben die Maßnahme als „tiefgreifendes Abweichen vom beabsichtigten Zweck“ und einen „kategorischen Fehler“, der einen „gefährlichen Präzedenzfall“ setze.
Neil Chilson, ehemaliger Technologiechef der Federal Trade Commission, nannte die Entscheidung einen „massiven Machtmissbrauch, der sowohl den US-KI-Sektor als auch die militärische Fähigkeit zur Akquisition bester Technologie schädigt“.
Senatorin Kirsten Gillibrand bezeichnete die Einstufung laut The Decoder als „kurzsichtig und selbstzerstörerisch“ – einen Angriff auf eine US-Firma, die Sicherheitsstandards verteidige.
Entschuldigungen für geleaktes internes Memo
Die Situation verschärfte sich, als ein internes Memo von Amodei an die Mitarbeiter an die Presse gelangte. Darin charakterisierte er OpenAIs Umgang mit dem Pentagon als „Safety Theater“. In seiner öffentlichen Stellungnahme entschuldigte sich Amodei für den Leak und den Ton des Memos.
Das Memo sei „innerhalb weniger Stunden“ nach einer Serie von Ankündigungen entstanden: einem Truth-Social-Post von Präsident Trump, Verteidigungsminister Pete Hegseths Designation-Ankündigung und dem OpenAI-Deal mit dem Pentagon. Amodei bezeichnete es als „einen schwierigen Tag für das Unternehmen“ und sagte, das Memo spiegele nicht seine „sorgfältig abgewogenen Ansichten“ wider. Es sei mittlerweile eine „veraltete Einschätzung“.
Auswirkungen auf Partner und die Branche
Die Designation könnte weitreichende Konsequenzen für Anthropics Geschäftspartner haben. Betroffen sind indirekt Unternehmen wie Amazon, Google und Lockheed Martin. Microsoft erklärte laut TechCrunch, dass seine Anwälte die Regelung geprüft hätten und das Unternehmen bei „nicht-verteidigungsbezogenen Projekten“ weiterhin mit Anthropic zusammenarbeiten könne – ein Hinweis darauf, dass die praktische Reichweite der Designation noch unklar ist.
Für die KI-Branche insgesamt setzt der Fall einen bedeutsamen Präzedenzfall. Er wirft die Frage auf, ob private Unternehmen bei Sicherheits- und Ethikbedenken gegenüber Regierungsforderungen widerstehen können – und zu welchem Preis.
Anthropics Position und finanzielle Lage
Trotz des Konflikts steht Anthropic finanziell solide da. Das Unternehmen wird laut The Decoder mit etwa 380 Milliarden Dollar bewertet und nähert sich einem Jahresumsatz von 20 Milliarden Dollar.
Anthropic hat angeboten, seine Modelle dem Militär weiterhin zu minimalen Kosten bereitzustellen, bis ein Übergang zu alternativen Anbietern abgeschlossen ist. Amodei betonte, dass produktive Gespräche mit Pentagon-Beamten, darunter Emil Michael, über einen möglichen Kompromiss weiterlaufen.
Parallele Entwicklung: Claude findet Sicherheitslücken in Firefox
Während der politische Konflikt eskalierte, demonstrierte Anthropic in einer Kooperation mit Mozilla die technischen Fähigkeiten seiner KI. Claude Opus 4.6 identifizierte laut TechCrunch innerhalb von zwei Wochen 22 Sicherheitslücken in Mozillas Firefox-Browser, davon 14 als hochgradig kritisch eingestuft.
Die Schwachstellen umfassen Memory-Safety-Probleme, Privilege-Escalation-Möglichkeiten und Remote-Code-Execution-Vektoren. Über 100 Bugs insgesamt wurden Mozilla gemeldet. Die meisten Fixes wurden bereits in Firefox 148 (Februar 2026) implementiert.
Logan Graham, Leiter von Anthropics Frontier Red Team, erklärte die Firefox-Auswahl: „Wir wählten Firefox, weil es eines der gründlichsten und sichersten Open-Source-Projekte weltweit ist.“
Interessanterweise war Claude deutlich besser im Finden von Schwachstellen als in deren praktischer Ausnutzung. Das Team investierte etwa 4.000 Dollar in API-Credits für Exploit-Entwicklung, schaffte dies aber nur in zwei Fällen – ein Hinweis auf die Grenzen aktueller KI-Systeme bei komplexem, kreativem Problemlösen.
Fazit: Ein Präzedenzfall mit weitreichenden Folgen
Der Konflikt zwischen Anthropic und dem Pentagon markiert einen Wendepunkt im Verhältnis zwischen Silicon Valley und Washington. Erstmals wurde ein US-Technologieunternehmen als Sicherheitsrisiko eingestuft, weil es ethische Grenzen bei der militärischen KI-Nutzung ziehen wollte.
Die rechtliche Auseinandersetzung, die Amodei angekündigt hat, könnte klären, wie weit die Autorität des Verteidigungsministeriums bei der Regulierung privater KI-Anbieter reicht. Für andere KI-Unternehmen sendet der Fall ein deutliches Signal: Wer mit dem Pentagon Geschäfte machen will, muss bereit sein, auf weitreichende Nutzungsbeschränkungen zu verzichten.
Gleichzeitig zeigt die massive Nutzerreaktion gegen OpenAI, dass ethische Positionierungen in der KI-Branche zunehmend zu einem Wettbewerbsfaktor werden. Die kommenden Monate werden zeigen, ob Anthropics Klage Erfolg hat und ob andere Unternehmen dem Beispiel folgen werden – oder ob der finanzielle Druck lukrativer Pentagon-Verträge letztlich stärker wiegt als ethische Bedenken.
Quellen
- TechCrunch — It’s official: The Pentagon has labeled Anthropic a supply-chain risk
- TechCrunch — Anthropic to challenge DOD’s supply-chain label in court
- TechCrunch — Anthropic’s Pentagon deal is a cautionary tale for startups chasing federal contracts
- The Decoder — Anthropic offiziell als Lieferkettenrisiko eingestuft, CEO Amodei kündigt Klage an
- Mayer Brown — Pentagon Designates Anthropic a Supply Chain Risk: What Government Contractors Need to Know
- CBS News — Pentagon-Anthropic supply chain risk feud over AI guardrails
- TechCrunch — Anthropic’s Claude found 22 vulnerabilities in Firefox over two weeks
