Anthropic gegen Pentagon: Wenn der Staat die Werte von KI diktiert

24. Februar 2026
5 Min. Lesezeit
Illustration eines Regierungsgebäudes gegenüber einem KI-Gehirn-Symbol

1. Überschrift & Einstieg

Der Konflikt zwischen Anthropic und dem US-Verteidigungsministerium ist mehr als ein Streit um einen Regierungsauftrag. Er ist der erste große Praxistest dafür, wer in Zukunft die Werte und Grenzen von Basismodellen festlegt: demokratische Regierungen oder private KI-Labore.

Wenn der Pentagon – wie berichtet – bereit ist, den Defense Production Act als Druckmittel einzusetzen, um Sicherheitsrichtlinien eines Modells aufzuweichen, dann geht es nicht nur um ein einzelnes Unternehmen, sondern um ein Machtwort gegenüber einer ganzen Branche. In diesem Artikel analysieren wir, was auf dem Spiel steht, wie sich das Kräfteverhältnis verschiebt und warum das für den KI-Standort Europa hochrelevant ist.


2. Die Nachricht in Kürze

Laut TechCrunch, unter Berufung auf Axios und Reuters, hat das US-Verteidigungsministerium Anthropic ein Ultimatum gestellt: Bis Freitagabend soll das Unternehmen der Armee faktisch unbegrenzten Zugriff auf sein KI-Modell einräumen – ansonsten drohen drastische Schritte.

Zu diesen Schritten gehört demnach zum einen die Einstufung als "Supply-Chain-Risikofaktor", eine Kategorie, die ansonsten vor allem für ausländische Gegner genutzt wird. Zum anderen steht der Defense Production Act (DPA) im Raum, ein Gesetz, das dem US-Präsidenten erlaubt, private Unternehmen zur vorrangigen Erfüllung von Aufträgen für die nationale Sicherheit zu verpflichten. Während der COVID‑19-Pandemie wurde der DPA genutzt, um die Produktion von Beatmungsgeräten und Schutzausrüstung hochzufahren.

Anthropic hält seit langem an der Position fest, seine Technologie nicht für vollautonome Waffensysteme oder für massenhafte Überwachung der US-Bevölkerung bereitzustellen. Laut Reuters, wie von TechCrunch zitiert, plant das Unternehmen keine Aufweichung dieser Leitplanken. Der Pentagon argumentiert hingegen, dass der Einsatz solcher Systeme durch US-Recht und verfassungsmäßige Kontrollmechanismen, nicht durch Nutzungsbedingungen eines Auftragnehmers, geregelt werden müsse. Brisant ist, dass Anthropic als einziges "Frontier"-KI-Labor derzeit Zugang zu klassifizierten DoD-Systemen hat.


3. Warum das wichtig ist

Auf der Oberfläche geht es um die Bedingungen eines Rüstungsvertrages. Tatsächlich handelt es sich um einen Grundsatzkonflikt: Wer legt die roten Linien für mächtige, allgemeine KI-Systeme fest – gewählte Regierungen oder Tech-Unternehmen?

Anthropic positioniert sich als sicherheitsorientiertes KI-Labor. Das Geschäftsmodell baut darauf, dass bestimmte Nutzungen kategorisch ausgeschlossen werden, obwohl sie technisch machbar und eventuell sogar legal wären. Wenn die US-Regierung mittels DPA diese Grenzen einseitig verschieben kann, entsteht ein gefährlicher Präzedenzfall: Ethik wird dann zur verhandelbaren Größe, sobald sich jemand auf die nationale Sicherheit beruft.

Kurzfristig könnten sich ausgerechnet jene Wettbewerber freuen, die ohnehin eng mit sicherheitspolitischen Akteuren kooperieren. TechCrunch weist darauf hin, dass das Verteidigungsministerium bereits eine Vereinbarung zur Nutzung von xAIs Modell Grok in klassifizierten Systemen getroffen hat. Sollte Anthropic hart bleiben, könnte das Lager der "willigeren" Anbieter politisch aufgewertet werden.

Doch auch der Pentagon steht schlecht da. Dass das DoD bei hochsensibler KI offenbar weitgehend von einem einzigen Anbieter abhängt – entgegen einer Sicherheitsrichtlinie aus der Biden-Ära, die exakt vor solchen Monokulturen warnt – ist ein eigenes Versagen. Mit brachialen Mitteln wie dem DPA zu reagieren, wirkt eher wie Schadensbegrenzung als wie strategische Planung.

Für Investoren und Gründer sendet der Fall ein klares Signal: Wer an der Spitze der KI-Entwicklung in den USA arbeitet, muss damit rechnen, dass sicherheitspolitische Erwägungen die Unternehmensstrategie abrupt übersteuern können. Das politisch-rechtliche Risiko steigt – und damit der Anreiz, auf mehrere Rechtsräume zu verteilen.


4. Das größere Bild

Der Konflikt reiht sich ein in eine Serie von Auseinandersetzungen zwischen Tech-Firmen und Sicherheitsbehörden.

Ein naheliegender Vergleich ist der Streit Apple vs. FBI um iPhone-Verschlüsselung 2016. Damals wollte die US-Regierung, dass Apple ein speziell geschwächtes iOS für Ermittlungszwecke baut. Apple argumentierte, dass eine solche Hintertür, einmal geschaffen, nicht kontrollierbar sei und globales Vertrauen zerstöre. Bei Anthropic ist das Muster ähnlich: Ein maßgeschneidertes, weniger restriktives Modell für das Militär mag formal getrennt sein, wirkt aber auf Architektur, Governance und Kultur des gesamten Labs zurück.

Hinzu kommt die starke Politisierung von KI in den USA. Laut TechCrunch wurden die Sicherheitsrichtlinien von Anthropic von Teilen der aktuellen Administration öffentlich als ideologisch gefärbt abqualifiziert. Wenn Fragen wie Content-Filter und Nutzungsverbote in den Kulturkampf gezogen werden, droht die eigentliche Risikodebatte – etwa über autonome Waffensysteme oder strategische Eskalation – im Lärm unterzugehen.

International betrachtet zeigt der Fall die strukturelle Schwäche westlicher Staaten im Umgang mit privat kontrollierten Basismodellen. Die Staaten wollen gleichzeitig regulator, Kunde und sicherheitspolitischer Dirigent sein. In China lösen Partei und Staat dieses Dilemma durch direkte Kontrolle. Die USA versuchen es über Marktanreize, Verträge – und nun offenbar auch über Zwangsinstrumente wie den DPA. Europa wiederum setzt vor allem auf Regulierung, insbesondere mit dem EU AI Act.

Interessant ist der Kontrast zu eben diesem AI Act. Die EU definiert verbotene oder hochriskante Anwendungen sektorübergreifend und kodifiziert sie in Gesetzestext. Der Pentagon scheint hingegen bilateral mit einzelnen Anbietern Sonderlösungen zu verhandeln. Je stärker die USA auf solche Einzelfall-Deals und exekutive Machtmittel setzen, desto attraktiver könnte Europas regelbasierter Ansatz für Unternehmen wirken, die Planbarkeit schätzen – trotz seines bürokratischen Ballasts.


5. Europäische / DACH-Perspektive

Für Europa – und besonders für den datenschutzsensiblen DACH-Raum – ist der Fall ein Warnsignal: Wer sich auf US-Modelle verlässt, importiert nicht nur Technologie, sondern auch die politischen Spannungen des Ursprungslandes.

Unternehmen in Deutschland, Österreich und der Schweiz greifen zunehmend auf APIs US-amerikanischer Labs zurück, sei es direkt oder über Cloud-Plattformen. Wenn ein Anbieter wie Anthropic im Heimatland unter sicherheitspolitischen Druck gerät, stellt sich die Frage, wie sauber kommerzielle und militärische Varianten wirklich getrennt sind. Für Compliance-Teams, die gleichzeitig GDPR, die künftige KI-Verordnung, das Lieferkettengesetz und branchenspezifische Auflagen im Blick behalten müssen, ist das ein Albtraum.

Regulatorisch verschärft sich das Spannungsfeld: Die DSGVO, der Digital Services Act und der kommende AI Act setzen auf Transparenz, Dokumentation und klare Haftungsketten. Geheime Anpassungen von Modellen im Auftrag der US-Verteidigung wären damit schwer vereinbar. Gleichzeitig sind EU-Staaten NATO-Mitglieder und auf US-Technologie angewiesen – auch im militärischen Bereich. Die Linie zwischen strategischer Kooperation und problematischer Abhängigkeit wird dünn.

Für die hiesige Tech-Szene – von Berliner und Münchner KI-Startups bis zu Konzernen mit eigenen Modellen – liegt in der aktuellen Entwicklung aber auch eine Chance. Ein europäisches Ökosystem leistungsfähiger Basismodelle, das klar innerhalb des EU-Rechtsrahmens operiert und nicht US-Notstandsgesetzen unterliegt, wäre plötzlich ein starkes Verkaufsargument. Ob Europa den politischen Willen und das Kapital mobilisiert, um das umzusetzen, ist eine andere Frage.


6. Ausblick

Wie könnte es weitergehen?

Am wahrscheinlichsten ist ein Kompromiss hinter den Kulissen. Anthropic könnte sich auf klar eingegrenzte militärische Anwendungsfälle mit strenger menschlicher Kontrolle einlassen, ohne seine roten Linien – etwa bei autonomen Waffensystemen – formell zu überschreiten. Der Pentagon wiederum könnte vom offen angedrohten Einsatz des DPA abrücken. Beide Seiten würden das Ergebnis kommunikativ als Bestätigung ihrer ursprünglichen Positionen verkaufen.

Ein konfrontativerer Verlauf wäre ein gerichtliches Vorgehen von Anthropic gegen eine DPA-Anordnung. Dann müsste die US-Justiz klären, ob ein Gesetz, das ursprünglich für physische Kriegsproduktion gedacht war, dazu genutzt werden darf, interne Richtlinien eines Softwareherstellers zu überstimmen. Früher oder später wird sich die amerikanische Rechtsprechung ohnehin mit der Frage befassen müssen, welche Grenzen exekutive Notstandsbefugnisse im KI-Zeitalter haben.

Unabhängig vom Ausgang bleibt für den Markt eine Lehre: "Schweizer Neutralität" gibt es für US-KI-Labs nicht. Wer in den USA an der Frontier arbeitet, steht zwangsläufig im Spannungsfeld von Markt, Politik und Militär. Darauf werden Unternehmen reagieren – mit rechtlicher Diversifikation, mit verstärktem Fokus auf lokal deploybare Modelle und mit politischem Lobbying für klarere Leitplanken.

Für Europa wird entscheidend sein, ob US-sicherheitspolitische Anforderungen langfristig in die allgemeine Modellarchitektur einfließen. Falls ja, kollidiert das früher oder später mit dem europäischen Anspruch, über Instrumente wie AI Act, DMA und DSA die eigene digitale Souveränität zu sichern.


7. Fazit

Der Streit zwischen Anthropic und dem Pentagon ist ein Lackmustest: Dürfen KI-Labore unverrückbare ethische Grenzen definieren – oder werden diese Grenzen beliebig, sobald sich ein Staat auf die nationale Sicherheit beruft? Sollte die USA den Defense Production Act als Druckmittel gegen heimische KI-Anbieter etablieren, leidet die Glaubwürdigkeit des Standorts. Für Europa wächst damit der Druck, eigene leistungsfähige Modelle aufzubauen, statt sich vollständig auf US-Anbieter zu verlassen. Die entscheidende Frage lautet: Wer soll letztlich bestimmen, was Ihre KI tun darf – Entwickler, Parlamente oder Generäle?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.