Anthropic unter Druck: Wie der Konflikt mit dem Pentagon die Regeln für Militär‑KI neu schreibt

23. Februar 2026
5 Min. Lesezeit
Symbolbild eines militärischen Leitstands mit eingeblendeter KI-Chatoberfläche

Einstieg: Mehr als nur ein Streit um einen Auftrag

Der aktuelle Konflikt zwischen Anthropic und dem US‑Verteidigungsministerium ist kein gewöhnlicher Vertragskrach, sondern ein Lackmustest für die Frage, wer in Demokratien die roten Linien für Künstliche Intelligenz zieht. Ein auf Sicherheit getrimmtes KI‑Labor, ein Vertrag über 200 Millionen Dollar und die Forderung nach Fähigkeiten wie Massenüberwachung und Waffen ohne »Human in the Loop« – das ist der Stoff, aus dem Grundsatzentscheidungen entstehen. In diesem Beitrag ordne ich die Meldung ein, beleuchte die industrie‑ und geopolitischen Folgen und ziehe eine explizit europäische, DACH‑fokussierte Perspektive.

Die Nachricht in Kürze

Wie TechCrunch unter Berufung auf Axios berichtet, hat US‑Verteidigungsminister Pete Hegseth Anthropic‑CEO Dario Amodei zu einem kurzfristigen Treffen ins Pentagon einbestellt. Anlass sind Spannungen über die militärische Nutzung von Anthropics Sprachmodell‑Familie Claude.

Dem Bericht zufolge droht das Pentagon, Anthropic als »Supply Chain Risk« einzustufen – eine Einstufung, die in der Regel für Unternehmen aus Staaten erfolgt, die als sicherheitspolitische Gegner gelten. Hintergrund ist, dass Anthropic zwei Arten von Anwendungen ablehnt: den Einsatz seiner Technologie für umfassende Überwachung der US‑Bevölkerung und für Waffensysteme, die ohne unmittelbare menschliche Entscheidung feuern können.

Anthropic hatte im vergangenen Sommer einen Vertrag über rund 200 Millionen Dollar mit dem Verteidigungsministerium abgeschlossen. Claude soll bereits bei einer Spezialoperation am 3. Januar genutzt worden sein, die zur Festnahme des venezolanischen Präsidenten Nicolás Maduro führte. Laut Axios bezeichnet eine Quelle das Treffen als Ultimatum: Entweder Anthropic lenkt ein, oder das Unternehmen verliert nicht nur den Vertrag, sondern wird faktisch aus weiten Teilen der US‑Verteidigungslandschaft gedrängt.

Warum das relevant ist

Dieser Konflikt bündelt gleich mehrere Grundfragen der KI‑Ära.

Erstens geht es um Machtverhältnisse: Darf ein privates Unternehmen der Regierung eines demokratischen Staates Grenzen setzen, wenn es um militärische Fähigkeiten geht? Anthropic hat sich bewusst als sicherheitsbewusste Alternative zu manchen Big‑Tech‑Konkurrenten positioniert. Wenn das Unternehmen seine roten Linien nun verteidigt, verteidigt es nicht nur eine Marketingbotschaft, sondern seine Existenzberechtigung als »verantwortlicher« Anbieter.

Zweitens stellt sich die Frage nach der Abhängigkeit. Für das Pentagon ist KI kein »Nice to have«, sondern zunehmend eine Basistechnologie für Aufklärung, Planung, Logistik und Cyberabwehr. Wenn zentrale Fähigkeiten an einen einzelnen Anbieter gebunden sind, der sich auf moralische Vorbehalte beruft, entsteht aus Sicht der Militärs ein strategisches Risiko. Die Androhung des Labels »Supply Chain Risk« ist deshalb weniger juristische Kategorie als politisches Druckmittel: Andere Unternehmen sollen gar nicht erst auf die Idee kommen, ähnliche Grenzen zu ziehen.

Drittens sendet der Fall ein deutliches Signal an den Rest des Marktes. Start‑ups und Scale‑ups, auch in Europa, beobachten sehr genau, ob sich ethische Selbstverpflichtungen in Regierungsaufträgen durchhalten lassen. Für Investoren ist relevant, ob sich ein klar formuliertes »Wir bauen keine autonomen Waffen« später als Hindernis entpuppt, wenn man um Großaufträge mit Rüstungskonzernen konkurriert. Und für Zivilgesellschaft und Forschungsgemeinschaft ist der Fall ein Präzedenzfall, ob High‑Risk‑Anbieter tatsächlich bereit sind, auf Geld zu verzichten, wenn es ernst wird.

Das größere Bild

Historisch ist die Situation nicht völlig neu. Schon beim NSA‑Skandal um PRISM und später im Kontext von Cloud‑Verträgen wie JEDI (Microsoft) wurde deutlich, wie eng große Tech‑Konzerne und Sicherheitsbehörden verflochten sind – und wie begrenzt die interne Widerstandskraft ist, wenn es um Milliardenbeträge geht.

Neu ist jedoch die Qualität der Technologie. Ein Foundation‑Modell wie Claude ist kein spezialisiertes Zielerfassungssystem, sondern ein universeller Problemlöser: von der Auswertung von Satellitenbildern über die Erstellung von Einsatzplänen bis hin zu psychologischen Operationen in sozialen Medien. Wer Kontrolle über die Einsatzregeln solcher Modelle hat, beeinflusst de facto die Schwelle, ab der Autonomie im militärischen Kontext zur Norm wird.

Die Verwendung des Begriffs »Supply Chain Risk« ist zudem bemerkenswert. In der Vergangenheit diente er vor allem dazu, Hersteller wie Huawei aus 5G‑Netzen fernzuhalten oder Software etwa von Kaspersky in Behörden zu verbannen. Dabei ging es um potenziellen Zugriff fremder Staaten. Im Fall von Anthropic geht es um etwas anderes: ein US‑Unternehmen, das aus eigenen Gründen bestimmte militärische Anwendungen ausschließt. Das Risiko soll hier nicht ein externer Akteur sein, sondern die Möglichkeit interner Verweigerung.

Parallel dazu formiert sich ein vielfältiges Wettbewerbsfeld. OpenAI betont öffentlich Restriktionen etwa für den Waffeneinsatz, rückt aber über Microsoft zunehmend in die Nähe staatlicher und sicherheitsrelevanter Kunden. Open‑Source‑Communities argumentieren, eine Kontrolle militärischer Nutzung sei ohnehin illusorisch. Und eine neue Generation von Defence‑Tech‑Start‑ups – von Kalifornien bis nach Europa – tritt explizit an, um »AI‑first«‑Streitkräfte zu ermöglichen, bei denen Autonomie nicht Ausnahme, sondern Voraussetzung ist.

Der Streit zwischen Pentagon und Anthropic ist insofern ein frühes Musterbeispiel für ein breiteres Spannungsfeld: Dual‑Use‑KI‑Anbieter wollen sowohl zivile als auch militärische Kunden bedienen, gleichzeitig aber ein Vetorecht für bestimmte Einsatzarten behalten. Ob dieses Modell tragfähig ist, entscheidet sich maßgeblich an diesem und ähnlichen Fällen.

Die europäische und DACH‑Perspektive

Für Europa – und speziell für die datensensible DACH‑Region – ist die Sache ambivalent.

Einerseits ist die Skepsis gegenüber Massenüberwachung und autonomen Waffensystemen tief verankert. Die EU‑Grundrechtecharta, die Datenschutz‑Grundverordnung (DSGVO) und demnächst der AI Act definieren strikte Leitplanken für Hochrisiko‑Anwendungen. Zwar nimmt die KI‑Verordnung militärische Systeme weitgehend aus, doch das politische Signal ist eindeutig: Biometrische Massenüberwachung im öffentlichen Raum gilt als inakzeptabel, vollautonome letale Systeme sind in vielen Mitgliedstaaten gesellschaftlich kaum vermittelbar.

Andererseits verlassen sich Deutschland, Österreich und die Schweiz sicherheitspolitisch teils direkt, teils indirekt auf US‑Technologie – sei es über NATO‑Strukturen, gemeinsame Rüstungsprojekte oder amerikanische Cloud‑Infrastruktur. Wenn Washington nun beginnt, eigene KI‑Anbieter aggressiv in Richtung bestimmter militärischer Anwendungen zu drängen, besteht die Gefahr, dass europäische Kunden in geopolitische Loyalitätskonflikte geraten.

Für den europäischen KI‑Sektor kann die Situation aber auch eine Chance sein. Anbieter wie Helsing positionieren sich explizit als »europäische Antwort« auf Defence‑Tech, mit Betonung auf Rechtsstaatlichkeit und Transparenz. Sollte Anthropic nachgeben und seine Einschränkungen verwässern, könnten EU‑Akteure versuchen, sich mit strengeren Self‑Governance‑Regeln positiv abzugrenzen: »Wir liefern euch leistungsfähige KI – aber mit klaren, überprüfbaren Grenzen.«

Für Unternehmen und Behörden in der DACH‑Region stellt sich zudem die Frage, wie viel strategische Abhängigkeit von US‑Foundation‑Modellen man akzeptieren will. Der Fall Anthropic illustriert, wie schnell solche Abhängigkeiten politisiert werden können. Das spricht dafür, den Aufbau eigener, europäischer Basismodelle – etwa in öffentlich‑privaten Partnerschaften – nicht nur als Industrie‑, sondern auch als sicherheitspolitisches Projekt zu betrachten.

Ausblick: Was als Nächstes kommt

In den kommenden Monaten sind mehrere Entwicklungen wahrscheinlich.

Das realistischste Szenario ist ein Kompromiss hinter verschlossenen Türen. Anthropic dürfte versuchen, seine »No‑Go‑Areas« – Massenüberwachung der eigenen Bevölkerung und vollautonome Waffensysteme – formal aufrechtzuerhalten, gleichzeitig aber weite Teile des militärischen Spektrums zu öffnen: Entscheidungshilfen, Simulationen, Cyberabwehr, Ausbildung. Das Verteidigungsministerium könnte seinerseits auf die Eskalation mit der Supply‑Chain‑Einstufung verzichten und stattdessen auf strengere Compliance‑ und Audit‑Mechanismen verweisen.

Weniger wahrscheinlich, aber deutlich einschneidender wäre ein offener Bruch. Sollte Anthropic die Zusammenarbeit lieber beenden, als seine Richtlinien aufzuweichen, wäre das ein starkes Signal an Mitarbeitende, Forschungsgemeinschaft und Politik: Es gibt Grenzen, für die wir bereit sind, substanzielle Umsätze zu opfern. Kurzfristig würde das Pentagon andere Anbieter finden; langfristig könnte Anthropic aber zur Anlaufstelle für Akteure werden, die verlässliche ethische Leitplanken schätzen – etwa europäische Institutionen.

Kommt es dagegen tatsächlich zur Einstufung als »Supply Chain Risk«, hätte das eine erhebliche Abschreckungswirkung. Andere US‑Behörden und große Rüstungsunternehmen würden sich kaum leisten wollen, auf eine als riskant gebrandmarkte Plattform zu setzen. Auch internationale Partner – inklusive europäischer – müssten dann genau abwägen, welche politischen Signale sie mit der Nutzung von Claude senden.

Für Beobachterinnen und Beobachter in Europa lohnt es sich, auf drei Indikatoren zu achten: Ändert Anthropic seine Nutzungsrichtlinien sichtbar? Positionieren sich andere Labore – etwa europäische Anbieter – öffentlich zu autonomen Waffensystemen? Und greift die EU‑Politik den Fall auf, um das eigene Narrativ »vertrauenswürdiger KI« in Abgrenzung zu den USA zu schärfen?

Fazit

Der Machtkampf zwischen Pentagon und Anthropic ist mehr als ein Streit um einen einzelnen Vertrag. Er markiert den Übergang von abstrakten Ethik‑Papieren zu harten politischen Entscheidungen über Leben und Tod, Überwachung und Autonomie. Wie dieser Konflikt ausgeht, wird mitentscheiden, ob private KI‑Labore tatsächlich als eigenständige normative Akteure auftreten können – oder ob sie am Ende doch nur verlängerte Werkbänke staatlicher Sicherheitsinteressen sind. Für Europa stellt sich damit eine strategische Frage: Wollen wir zusehen, wie andere die Regeln schreiben, oder wollen wir eigene, überprüfbare Grenzen für Militär‑KI definieren – und sie dann auch verteidigen?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.