Wenn KI den Wahlkampf kauft: Was Anthropics Super-PAC-Offensive wirklich zeigt

20. Februar 2026
5 Min. Lesezeit
Illustration des US-Kapitols mit überlagerten KI-Schaltkreisen und gegensätzlichen Wahlplakaten

Wenn KI den Wahlkampf kauft: Was Anthropics Super-PAC-Offensive wirklich zeigt

Die großen KI-Labore sind offiziell im Wahlkampf angekommen – und zwar nicht nur auf einer Seite. In den USA finanzieren sich nun rivalisierende AI‑Super‑PACs, die Millionen in dieselbe Kongresswahl pumpen und sich offen bekämpfen.

Laut einem Bericht von TechCrunch unterstützt Anthropic einen politischen Ausschuss, der im New Yorker 12. Wahlbezirk gegen einen anderen, industrienahen AI‑Super‑PAC antritt. Hinter diesem Schlagabtausch steht eine grundsätzliche Frage: Wer definiert künftig, was „pro KI“ bedeutet – und wer schreibt die Regeln für Modelle, die unsere Informationsordnung und Sicherheit beeinflussen?

Für Europa und den DACH‑Raum ist das mehr als amerikanische Folklore. Es ist ein Vorgeschmack auf die nächste Phase des globalen Regulierungskampfs um KI.

Die Nachricht in Kürze

Wie TechCrunch berichtet, ist der Abgeordnete der New Yorker State Assembly Alex Bores, der für den 12. Kongressdistrikt kandidiert, ins Visier eines explizit KI‑freundlichen Super‑PAC geraten.

Der Ausschuss Leading the Future – laut TechCrunch mit mehr als 100 Millionen US‑Dollar ausgestattet und unterstützt u. a. von Andreessen Horowitz, OpenAI‑Präsident Greg Brockman, der Such‑Plattform Perplexity und Palantir‑Mitgründer Joe Lonsdale – hat bereits rund 1,1 Millionen US‑Dollar für Angriffe auf Bores ausgegeben. Auslöser ist vor allem der von Bores initiierte RAISE Act im Bundesstaat New York, der große KI‑Entwickler verpflichtet, Sicherheitsprotokolle offenzulegen und schwerwiegende Missbrauchsfälle ihrer Systeme zu melden.

Nun bekommt Bores Rückendeckung. Der Ausschuss Public First Action, der laut Bloomberg (zitiert von TechCrunch) eine Spende von 20 Millionen US‑Dollar von Anthropic erhalten hat, investiert 450.000 US‑Dollar in Werbung zugunsten von Bores. Public First Action versteht sich ebenfalls als pro KI, setzt den Schwerpunkt aber auf Transparenz, Sicherheitsstandards und öffentliche Aufsicht.

Warum das relevant ist

Entscheidend ist nicht, wer einen einzelnen Sitz im US‑Kongress gewinnt. Entscheidend ist, dass hier erstmals zwei Fraktionen innerhalb der KI‑Industrie offen gegeneinander antreten.

Leading the Future verkörpert den Silicon‑Valley‑Maximalismus: KI als Wachstumsmotor und geopolitische Waffe, Regulierung höchstens als zahnloser Rahmen. Bores wird nicht attackiert, weil er technikfeindlich wäre, sondern weil er mit dem RAISE Act einen Präzedenzfall schafft: Wenn ein einzelner Abgeordneter Offenlegungspflichten für KI‑Sicherheitsprozesse durchsetzen kann, könnten andere Parlamente nachziehen.

Anthropic hingegen versucht, das Label „pro KI“ neu zu besetzen: innovationsoffen, aber sicherheitsorientiert, mit klaren Offenlegungs‑ und Aufsichtspflichten. Das Unternehmen inszeniert sich schon länger als Labor, das existenzielle Risiken ernst nimmt. Mit 20 Millionen US‑Dollar für einen PAC, der einen eher regulierungsfreundlichen Kandidaten stützt, verlässt Anthropic nun die Rolle des diskreten Lobbyisten und wird selbst zum machtbewussten politischen Akteur.

Profiteure:

  • Große Labs mit Sicherheitsprofil stärken ihre politische Verhandlungsposition und ihr moralisches Framing.
  • Investoren mit Wachstumsfokus erhalten ein Werkzeug, um Regulierer abzuschrecken oder gezielt zu fördern.

Verlierer:

  • Kleinere KI‑Startups, auch in Europa, die keine eigenen Millionen‑Kriegskassen aufbauen können und politisch zwischen den Fronten stehen.
  • Demokratische Institutionen, die Regulierung künftig unter dem Eindruck millionenschwerer Kampagnen gestalten müssen.

Kurzfristig wird jeder Abgeordnete, der über scharfe KI‑Regeln nachdenkt – in Washington, aber auch in Berlin oder Brüssel –, diesen Fall studieren. Die Botschaft lautet: Wer KI ernsthaft reguliert, löst politische Gegenkampagnen aus – aber möglicherweise auch Schutz durch andere Teile der Branche.

Der größere Kontext

Dieses Muster kennt man aus anderen Technologiewellen.

Als Uber und Lyft kommunale Regeln aushebeln wollten, als Telekomkonzerne gegen Netzneutralität kämpften oder als die Kryptobranche über PACs wie Fairshake zweistellige Millionenbeträge in US‑Wahlkämpfe pumpte, war die Logik identisch: Neue Industrien versuchen, die Spielregeln früh zu ihren Gunsten festzuschreiben.

Bei KI kommt zweierlei hinzu: die enorme Machtkonzentration und die Systemrelevanz der Technologie. Eine Handvoll Firmen – Anthropic, OpenAI, Google DeepMind, Meta und einige wenige weitere – baut Modelle, die Informationsflüsse, Arbeitsmärkte und Sicherheitspolitik beeinflussen. Wenn dieselben Akteure nun auch direkteren Einfluss auf Wahlkämpfe nehmen, verschiebt sich das Kräfteverhältnis zwischen Wirtschaft und Demokratie noch weiter.

Das aktuelle Duell fügt sich in mehrere Trends ein:

  • Regulierung ist unvermeidlich geworden. Die USA haben eine präsidentielle Executive Order zu KI, das Vereinigte Königreich veranstaltete den AI Safety Summit, die EU hat sich auf den AI Act geeinigt. Für die Branche geht es nun darum, die Details dieser Regime zu prägen.
  • Innerhalb der Branche bilden sich ideologische Fraktionen. Auf der einen Seite sicherheitsorientierte Labs wie Anthropic, auf der anderen Seite lautstarke Techno‑Optimisten, die vor „Überregulierung“ warnen und Risiken herunterspielen.
  • Lobbying wird sichtbarer und aggressiver. Statt nur an Gesetzestexten mitzuschreiben, wird versucht, bestimmte Politiker gar nicht erst ins Amt kommen zu lassen.

Das US‑System mit seinen Super‑PACs ist für diese Strategie besonders geeignet: unbegrenzte Spenden, hohe Werbevolumina, schwache Transparenzpflichten. In Europa sind direkte Wahlkampffinanzen aus der Industrie deutlich stärker reguliert – weshalb hier eher Brüssel‑Lobbying, Stiftungen, Verbände und Thinktanks als Hebel dienen.

Die Lehre aus diesem Fall: Es wird keinen monolithischen „KI‑Lobbyblock“ geben. Vielmehr entsteht ein Geflecht konkurrierender Machtzentren – Sicherheit versus Wachstum, Open Source versus proprietär, nationale Sicherheit versus globale Offenheit. Für die Politik wird es schwerer, „die KI‑Industrie“ als einheitlichen Ansprechpartner zu behandeln.

Die europäische / DACH-Perspektive

Für Europa, Deutschland, Österreich und die Schweiz ist dieser US‑Konflikt strategisch relevant.

Erstens, weil die betreffenden Labs globale Infrastrukturanbieter sind. Modelle von Anthropic, OpenAI & Co. werden von europäischen Unternehmen, Medienhäusern und Verwaltungen genutzt. Wenn US‑Gesetze durch massiven Wahlkampfdruck der Industrie verwässert werden, entstehen Regulierungslücken, die direkt nach Europa durchschlagen – etwa bei Sicherheitsstandards, Exportkontrollen oder Unternehmenspflichten.

Zweitens zeigt der Fall, dass sich Europa mit seinem Kurs aus DSA, DMA und AI Act nicht nur gegen „die Techbranche“ insgesamt positioniert, sondern ungewollt Partei in einem inneramerikanischen Konflikt wird. Sicherheits‑orientierte Akteure können Brüssel als Verbündeten betrachten, wachstumsorientierte Hardliner eher als Hindernis.

Die politische Kultur ist jedoch grundlegend anders:

  • In Deutschland sind Unternehmensspenden an Parteien und Transparenzpflichten deutlich strenger als in den USA; Super‑PAC‑ähnliche Konstruktionen existieren so nicht.
  • In der Schweiz verhindert das direktdemokratische System zwar keine intensive Lobbyarbeit, aber große, verdeckte Wahlkampfbudgets sind gesellschaftlich stärker umstritten.
  • Auf EU‑Ebene gewinnen dafür Industrieverbände und Lobbyorganisationen an Gewicht, die mittelbar ähnlich starken Einfluss entfalten können wie US‑PACs.

Für die DACH‑Region birgt der US‑Fall zwei Chancen:

  • Regulierer können argumentieren, dass ambitionierte Regeln innovationskompatibel sind – schließlich positioniert sich ein führendes US‑Lab freiwillig pro Aufsicht.
  • Europäische KI‑Startups – von Berlin über Zürich bis Wien – können eine eigenständige Stimme entwickeln, die weder blind den US‑Sicherheitslagern noch den Hyper‑Wachstums‑Fraktionen folgt.

Ausblick

Die Wahl in New York ist der Auftakt. Entscheidend wird, ob sich das Modell „duellierende KI‑Super‑PACs“ verstetigt.

Denkbare Szenarien für die nächsten 12–24 Monate:

  • Skalierung: Bleibt das Engagement auf einige symbolische Rennen beschränkt oder sehen wir 2028 ein Dutzend KI‑dominierter Wahlkämpfe?
  • Gegenreaktion: Entstehen Kandidaturen, die explizit „frei von KI‑Geld“ antreten und das Thema politisch aufladen – vergleichbar mit „No‑PAC“-Bewegungen in den USA?
  • Regulatorische Antwort: Reagiert die US‑Wahlaufsicht (FEC) oder der Kongress mit strengeren Transparenz‑ und Kennzeichnungspflichten für KI‑finanzierte Kampagnen und KI‑erzeugte Wahlwerbung?
  • Transatlantische Effekte: Wie stark beeinflussen diese Auseinandersetzungen die Debatte über die konkrete Umsetzung des EU‑AI‑Acts, etwa bei Hochrisiko‑Systemen oder grundlegenden Modellen?

Das zentrale Risiko ist regulatory capture: dass diejenigen, die die mächtigsten KI‑Systeme entwickeln, über Forschungsgelder, Lobbyarbeit und nun auch Wahlkampffinanzierung de facto die Regeln für sich selbst schreiben. Die Gegenrichtung – ein pauschaler politischer Anti‑KI‑Reflex – wäre jedoch genauso gefährlich, weil sie sinnvolle Anwendungen und offene Forschung erstickt.

Für europäische Entscheidungsträgerinnen und Entscheidungsträger bedeutet das:

  • KI‑Regulierung darf nicht allein auf Expertengremien und industrienahe Konsultationen ausgelagert werden.
  • Parlamente in Berlin, Wien, Bern und Brüssel sollten früh definieren, wie viel direkten Einfluss große KI‑Anbieter auf Politikgestaltung bekommen sollen – und wo rote Linien verlaufen.

Fazit

Anthropic macht mit seiner 20‑Millionen‑Dollar‑Spende an einen pro‑Regulierung‑PAC deutlich: große KI‑Labs sind nicht mehr nur Objekte von Regulierung, sondern eigenständige politische Machtzentren, die bereit sind, gegeneinander anzutreten.

Dass es nun mehrere konkurrierende „pro KI“-Visionen gibt, ist besser, als wenn ein monolithischer Industrieblick dominiert. Gleichzeitig wird klar: Die Weichenstellung für die Governance von KI verlagert sich zunehmend in den Schatten teurer Wahlkämpfe.

Die offene Frage für Europa lautet: Nutzen wir das Zeitfenster, um mit dem AI Act, dem DSA und nationalen Regeln ein demokratisch legitimiertes Gegengewicht zu diesem Einfluss aufzubauen – oder laufen wir Gefahr, dass auch hierzulande de facto jene die Leitplanken setzen, die am meisten Geld und Compute besitzen?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.