Pentagon droht Anthropic mit Vertragsende wegen KI-Nutzungsbeschränkungen

a room with many machines
Photo by ZHENYU LUO on Unsplash

Stand: 16. Februar 2026

Das US-Verteidigungsministerium prüft den Abbruch seiner Partnerschaft mit dem KI-Unternehmen Anthropic. Grund ist ein festgefahrener Konflikt über die militärische Nutzung des KI-Modells Claude. Anthropic besteht auf Einschränkungen bei autonomen Waffen und Massenüberwachung, während das Pentagon uneingeschränkten Zugang für „alle rechtmäßigen Zwecke“ fordert. Der Streit könnte einen Präzedenzfall für die Rolle privater KI-Firmen in der nationalen Sicherheit schaffen.

Das Wichtigste in Kürze

  • Pentagon droht mit Beendigung eines 200-Millionen-Dollar-Vertrags mit Anthropic wegen Nutzungsbeschränkungen
  • Anthropic lehnt militärische Nutzung für vollautonome Waffen und Massenüberwachung im Inland ab
  • Claude wurde bereits in einer US-Militäroperation zur Festnahme des venezolanischen Ex-Präsidenten Nicolás Maduro eingesetzt
  • OpenAI, Google und xAI zeigen sich laut Pentagon kooperativer bei militärischen Anforderungen
  • Verhandlungen stocken seit Monaten, Pentagon sucht nach „geordnetem Ersatz“

Anthropic beharrt auf ethischen Grenzen

Das KI-Unternehmen Anthropic steht im Zentrum eines beispiellosen Konflikts mit dem US-Verteidigungsministerium. Wie Golem berichtet, fordert das Pentagon von führenden KI-Laboren, militärische Anwendungen für „alle legalen Zwecke“ zu ermöglichen, einschließlich Waffenentwicklung, Geheimdienste und Kampfoperationen. Anthropic weigert sich jedoch und besteht auf zwei klaren Ausschlusskriterien: Massenüberwachung von US-Bürgern und vollständig autonome Waffensysteme.

Ein hochrangiger Regierungsbeamter sagte gegenüber Axios: „Es ist nicht praktikabel, jeden spezifischen Einsatzzweck mit Anthropic auszuhandeln.“ Er fügte hinzu: „Alles ist auf dem Tisch“, einschließlich der Möglichkeit, die Zusammenarbeit zu reduzieren oder zu beenden.

Die finanzielle Dimension des Streits ist bemerkenswert: Laut Golem sind von dem 200-Millionen-Dollar-Vertrag bisher nur 1,99 Millionen Dollar gebunden worden – ein faktisches 99-prozentiges Einfrieren der Mittel.

Claude-Einsatz bei Maduro-Operation verschärft Spannungen

Der Konflikt eskalierte, als bekannt wurde, dass Claude über den Anthropic-Partner Palantir in einer US-Militäroperation zur Festnahme des ehemaligen venezolanischen Präsidenten Nicolás Maduro eingesetzt wurde. Wie The Decoder berichtet, soll ein Anthropic-Manager bei Palantir nachgefragt haben, ob Claude bei der Operation beteiligt war, was Missbilligung andeutete.

Ein Pentagon-Vertreter interpretierte dies als Signal, dass Anthropic Einwände gegen den Einsatz bei Operationen mit Schusswechseln haben könnte. Anthropic dementierte dies jedoch kategorisch und betonte in einer Stellungnahme gegenüber TechCrunch:

„Wir haben den Einsatz von Claude für spezifische Operationen weder mit dem DoD noch mit Partnern außerhalb routinemäßiger technischer Gespräche besprochen. Fokus liegt auf Usage Policy, insbesondere harten Grenzen bei vollautonomen Waffen und Massenüberwachung im Inland.“

Konkurrenz zeigt sich flexibler

Während Anthropic auf seinen ethischen Richtlinien beharrt, zeigen sich andere führende KI-Unternehmen kompromissbereiter. Laut The Decoder haben OpenAI, Google und xAI ihre normalen Beschränkungen für Pentagon-Anwendungen gelockert. Mindestens eines dieser Unternehmen hat den Pentagon-Bedingungen bereits zugestimmt.

Ein Pentagon-Beamter räumte jedoch ein, dass es schwierig wäre, Claude schnell zu ersetzen, da „die anderen Modellunternehmen einfach nicht so fortgeschritten“ für spezialisierte Regierungsanwendungen seien. Claude war das erste KI-Modell, das in geheime Pentagon-Netzwerke integriert wurde.

Kulturkollision zwischen Sicherheit und Innovation

Der Konflikt offenbart eine tiefere kulturelle Kluft in der KI-Branche. Ein Pentagon-Beamter bezeichnete Anthropic als die „ideologischste“ unter den KI-Laboren bezüglich Technologierisiken. Dies steht im direkten Gegensatz zur Sicherheitspolitik von CEO Dario Amodei, der in einem aktuellen Blogpost schrieb, KI solle die nationale Verteidigung „auf alle Arten unterstützen, außer jenen, die uns unseren autokratischen Gegnern ähnlicher machen würden“.

Die Position von Anthropic könnte auch interne Spannungen widerspiegeln: Wie The Decoder berichtet, kritisieren einige Anthropic-Ingenieure die Militärkooperation grundsätzlich. Das Unternehmen, das auf „verantwortungsvoller KI“ gegründet wurde, testet damit die Grenzen dessen, was private Firmen gegenüber staatlichen Anforderungen durchsetzen können.

Paralleler Konflikt: ByteDance und Hollywood

Während der Pentagon-Anthropic-Streit die militärische KI-Nutzung betrifft, eskaliert zeitgleich ein anderer Konflikt um KI-Ethik: Die Hollywood-Industrie geht gegen ByteDances neues KI-Videogenerierungsmodell Seedance 2.0 vor. Wie TechCrunch berichtet, verurteilen die Motion Picture Association, SAG-AFTRA und die Human Artistry Campaign das Tool als „blatante“ Urheberrechtsverletzung.

Seedance 2.0 erzeugt bis zu 15 Sekunden lange Videos in bis zu 2K-Auflösung aus Text, Bildern, Videos und Audio. Charles Rivkin, CEO der Motion Picture Association, erklärte:

„In a single day, the Chinese AI service Seedance 2.0 has engaged in unauthorized use of U.S. copyrighted works on a massive scale. By launching a service that operates without meaningful safeguards against infringement, ByteDance is disregarding well-established copyright law.“ (eigene Übersetzung: „An einem einzigen Tag hat der chinesische KI-Dienst Seedance 2.0 unbefugte Nutzung US-amerikanischer urheberrechtlich geschützter Werke in massivem Ausmaß betrieben. Durch den Start eines Dienstes ohne sinnvolle Schutzmaßnahmen gegen Rechtsverletzungen missachtet ByteDance etabliertes Urheberrecht.“)

Disney hat bereits eine Unterlassungserklärung verschickt und ByteDance eines „virtual smash-and-grab of Disney’s IP“ beschuldigt, nachdem Videos mit Spider-Man, Darth Vader und Baby Yoda (Grogu) aufgetaucht waren.

OpenAI stärkt Agenten-Entwicklung mit österreichischem Talent

In einer positiven Entwicklung für die KI-Branche hat OpenAI den österreichischen Entwickler Peter Steinberger unter Vertrag genommen, wie Heise meldet. Steinberger ist der Schöpfer von OpenClaw, einem open-source, selbstgehosteten KI-Agenten für lokale Hardware.

OpenAI-CEO Sam Altman bestätigte den Wechsel am Wochenende: „Peter Steinberger kommt zu OpenAI, um die nächste Generation persönlicher Agenten voranzutreiben.“ Das OpenClaw-Projekt bleibt open source und wird in eine unabhängige OpenClaw Foundation überführt, die von freien Programmierern weiterentwickelt wird.

Fazit: Ethik vs. nationale Sicherheit

Der Konflikt zwischen Anthropic und dem Pentagon etabliert einen kritischen Präzedenzfall für private Ethik in der Regierungsbeschaffung. Er zeigt, wie schwierig es für KI-Unternehmen wird, zwischen Sicherheitsstandards und Marktdruck zu balancieren. Während die Regierung KI zur Modernisierung ihrer Fähigkeiten dringend benötigt, werden KI-Unternehmen mit starker Sicherheitsausrichtung zunehmend zum strategischen Problem – nicht nur wegen ihrer Positionen, sondern weil sie technologisch schwer ersetzbar sind.

Die parallele Seedance-Kontroverse zeigt zudem, dass KI-Ethikdebatten längst nicht mehr nur akademischer Natur sind, sondern reale wirtschaftliche und rechtliche Konsequenzen nach sich ziehen. Ob Anthropic seine Position durchsetzen kann oder ob der Marktdruck zu einem Nachgeben führt, wird die Zukunft der KI-Regulierung maßgeblich beeinflussen.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen