Anthropic galt bisher als das „vorsichtige“ KI‑Labor: viel Forschung zu Sicherheit, Alignment und langfristigen Risiken, relativ wenig laute Politik. Mit der Gründung eines eigenen Political Action Committee (PAC) ändert sich das. Damit betritt ein zentraler Akteur des KI‑Booms ganz offiziell die Bühne des amerikanischen Wahlkampfs.
Für den deutschsprachigen Raum ist das mehr als eine Randnotiz. Wer heute in Berlin, München oder Zürich auf Basis amerikanischer Foundation‑Modelle Produkte baut, hängt mittelbar an politischen Entscheidungen in Washington. Wenn diese Entscheidungen durch KI‑Unternehmen mitgestaltet werden, verschiebt sich das Machtgefüge in der Regulierung grundlegend.
Die Meldung im Überblick
Laut TechCrunch hat Anthropic bei der US‑Bundeswahlkommission einen neuen Political Action Committee namens AnthroPAC registriert. Als Verantwortliche zeichnet in den offiziellen Unterlagen Anthropic‑Schatzmeisterin Allison Rossi.
Wie Bloomberg berichtet und TechCrunch zusammenfasst, soll der PAC über freiwillige Beiträge von Mitarbeiterinnen und Mitarbeitern finanziert werden, jeweils auf 5.000 US‑Dollar begrenzt. AnthroPAC plant, in den kommenden Zwischenwahlen Kandidaten beider großen Parteien zu unterstützen – sowohl amtierende Kongressmitglieder als auch politische Newcomer.
TechCrunch ordnet ein, dass Anthropic bereits zuvor politisch aktiv war. Die Washington Post meldete kürzlich, dass KI‑Firmen im aktuellen Wahlzyklus zusammen bereits rund 185 Millionen Dollar gespendet haben. Die New York Times wiederum beschrieb einen Super PAC namens Public First, der mindestens 20 Millionen Dollar von Anthropic erhalten habe, um Kampagnen für eine bestimmte KI‑Regulierungsagenda zu finanzieren.
Parallel dazu steckt Anthropic in einem heftigen Rechtsstreit mit dem US‑Verteidigungsministerium über die Nutzung und die Leitlinien für den Einsatz der Anthropic‑Modelle im militärischen Kontext.
Warum das wichtig ist
Dieser PAC ist mehr als nur ein weiterer Lobby‑Topf aus dem Silicon Valley. Er markiert den Moment, in dem „KI‑Sicherheit“ zur politisch vermarktbaren Ressource und zur Eintrittskarte in die Machtzentren Washingtons wird.
Anthropic positioniert sich seit Jahren als Labor, das vor den Gefahren hochskalierter Modelle warnt: Missbrauch, Desinformation, dual‑use im militärischen Bereich, langfristige Kontrollprobleme. Wenn genau dieses Unternehmen beginnt, systematisch Wahlkämpfe zu finanzieren, passiert zweierlei:
Sicherheitsbedenken werden politisch anschlussfähig. Viele US‑Abgeordnete haben weder Zeit noch Hintergrund, die technischen Details von KI‑Risiken zu verstehen. Ein gut organisierter PAC kann fertige Narrative liefern: welche Risiken dringlich sind, welche Maßnahmen „vernünftig“ erscheinen, wo man lieber auf Selbstregulierung setzen sollte. Das ist Chance und Risiko zugleich.
Sicherheit wird zum Markteintrittsbarriere. Sobald anspruchsvolle Sicherheits- und Compliance‑Anforderungen gesetzlich verankert sind, profitieren die Player, die diese Hürden mühelos nehmen können – also große, kapitalstarke Labore mit eigenen Governance‑Teams. Für kleinere Startups oder Open‑Source‑Communities werden dieselben Regeln schnell existenzbedrohend.
Die Gewinner:
- Anthropic und andere Frontier‑Labs, die direkten Einfluss auf die Ausgestaltung von Regeln gewinnen.
- Hyperscaler wie AWS, Google Cloud oder Azure, auf deren Infrastruktur viele Hochrisiko‑Anwendungen laufen und die Compliance als Service verkaufen können.
- Politische Entscheidungsträger, die sich mit industrienahen „Lösungen“ profilieren können, ohne selbst tief in die Materie einsteigen zu müssen.
Die Verlierer:
- Kleinere KI‑Anbieter, Open‑Source‑Projekte und Forschungseinrichtungen, denen die Ressourcen für permanentes Policy‑Engagement fehlen.
- Zivilgesellschaftliche Organisationen, die nun nicht nur mit Big Tech allgemein, sondern mit spezialisierten KI‑Lobbys konkurrieren müssen.
Die unmittelbare Folge: Die Debatte über KI‑Regulierung wird in den USA noch stärker von Geldströmen beeinflusst werden. Da die meisten europäischen KI‑Anwendungen auf US‑Modellen aufsetzen, werden diese politischen Entscheidungen auch in der EU und im DACH‑Raum indirekt wirksam.
Der größere Kontext
AnthroPAC reiht sich ein in eine schnell eskalierende Einflusskonkurrenz rund um KI‑Politik.
Große Tech‑Konzerne – von Microsoft über Google bis Meta und Amazon – betreiben seit Jahren PACs, Lobby‑Teams und Think‑Tank‑Partnerschaften in Washington und Brüssel. Die aktuelle KI‑Welle verschiebt den Schwerpunkt: Es geht nun weniger um klassische Themen wie Netzneutralität oder Datenschutz, sondern um fundamentale Fragen, wie viel Autonomie hochleistungsfähige Systeme erhalten sollen.
In den vergangenen zwei Jahren sahen wir unter anderem:
- öffentliche „Freiwillig‑Verpflichtungen“ von KI‑Firmen gegenüber dem Weißen Haus,
- intensive Lobbyarbeit rund um erste US‑Gesetzesentwürfe zu KI,
- Anhörungen im Kongress, in denen KI‑Chefs am einen Tag vor existenziellen Risiken warnen und am nächsten Tag großvolumige Regierungsaufträge bewerben.
Anthropic agiert hier vergleichsweise transparent: ein klassischer, mit Mitarbeitergeldern gespeister PAC plus große, teils öffentlich gewordene Beiträge an einen Super PAC. Andere Unternehmen bevorzugen Verbände, Beratungsfirmen oder stille Finanzierungen von Forschungsinstituten. Das Ergebnis ist ähnlich: die Wissensbasis vieler Gesetzgeber ist stark von industrienahen Analysen geprägt.
Historisch erinnert das an die Entwicklung bei Telekommunikation, Finanzmärkten oder sozialen Medien: Zunächst ist die Technologie relativ unreguliert, dann folgen Skandale und gesellschaftliche Debatten, schließlich entsteht Regulierung – maßgeblich geformt von denen, die sie später einhalten sollen. Mit KI verschärft sich dieses Muster, weil die Technologie direkt auf Meinungsbildung, Informationsflüsse und kritische Infrastrukturen wirkt.
Die europäische und DACH‑Perspektive
Für Europa und insbesondere für den datenschutzsensiblen DACH‑Raum ist AnthroPAC ein deutliches Signal.
Die EU hat mit DSGVO, Digital Services Act, Digital Markets Act und nun dem AI Act einen klar regulierungsfreundlichen Kurs eingeschlagen. Brüssel beansprucht offen die Rolle des globalen Regelsetzers. Doch während die EU mühsam konsensbasierte Gesetze verhandelt, baut die US‑KI‑Industrie systematisch politische Schlagkraft auf.
Die Folgen:
- Transatlantische Spannungen: Wenn US‑Regeln – geprägt von Industrie‑PACs – deutlich laxer bleiben als der AI Act, entsteht ein regulatorisches Gefälle. Europäische Anbieter tragen höhere Compliance‑Kosten, während US‑Firmen gleichzeitig in Europa als unverzichtbare Infrastruktur auftreten.
- Indirekte Einflussnahme in der EU: Auch wenn PACs ein US‑Phänomen sind, werden dieselben Akteure in Brüssel und Berlin über andere Vehikel aktiv: Branchenverbände, Stiftungen, gesponserte Forschungsprojekte. Die Gefahr: De‑facto‑Standards, die in intransparenten Expertengremien entstehen und später Eins‑zu‑Eins in Gesetzestexte wandern.
- Druck auf europäische KI‑Champions: Unternehmen wie Aleph Alpha (Deutschland) oder Mistral (Frankreich) stehen vor der doppelten Herausforderung, strenge EU‑Regeln einzuhalten und gleichzeitig gegen US‑Konkurrenz anzutreten, die ihre Heimregulierung mitgestaltet.
Für den deutschsprachigen Mittelstand, der KI einsetzt, ist noch ein weiterer Punkt relevant: Wenn Anthropic – getrieben von US‑Regulierung – bestimmte Anwendungen (z. B. im Militär‑ oder Überwachungsbereich) einschränkt, treffen diese Limits auch europäische Kunden, selbst wenn europäisches Recht mehr Spielraum ließe.
Gleichzeitig eröffnet sich für die EU die Chance, ihre Rolle als Gegenpol zu einer stark industriegelenkten US‑Politik zu schärfen – vorausgesetzt, die Mitgliedstaaten nehmen ihre eigenen Regeln ernst und lassen sie nicht durch bilaterale Deals aushebeln.
Ausblick
Was ist in den nächsten Jahren zu erwarten?
Feinjustierung durch Geldflüsse. Die eigentliche Bedeutung von AnthroPAC wird sich daran messen lassen, welche Kandidaten und Ausschüsse Geld erhalten. Unterstützt werden dürften jene, die strenge Regeln bei hochriskanten Szenarien akzeptieren, aber den kommerziellen Spielraum für große Anbieter maximal offen lassen.
Verschmelzung von Lobbying und Beschaffung. Der laufende Rechtsstreit mit dem Verteidigungsministerium zeigt, wie eng KI‑Regeln und staatliche Beschaffung verknüpft sind. Wer die Standards für „vertrauenswürdige“ KI in der Verteidigungspolitik mitschreibt, gewinnt unmittelbare Vorteile bei milliardenschweren Ausschreibungen.
Nachahmer und Konsortien. Es wäre überraschend, wenn AnthroPAC der einzige explizit KI‑fokussierte PAC bliebe. Wahrscheinlicher ist eine Welle ähnlicher Strukturen, flankiert von Branchenallianzen, die im Namen der „Innovation“ Regulierung lenken wollen.
Gegenbewegung. Je stärker KI‑Geld in den US‑Wahlkampf fließt, desto lauter werden Forderungen nach mehr Transparenz und Beschränkungen – analog zu Debatten über Öl‑, Pharma‑ oder Rüstungslobby. Ob daraus tatsächlich Reformen des Kampagnenfinanzierungsrechts entstehen, ist offen, aber der politische Druck wird steigen.
Für Unternehmen und öffentliche Einrichtungen im DACH‑Raum heißt das: KI‑Governance gehört in den Risiko‑ und Strategieausschuss, nicht nur in die IT‑Abteilung. Welche Modelle in Zukunft verfügbar sind, zu welchen Bedingungen und mit welchen Nutzungseinschränkungen, wird maßgeblich in US‑Gesetzen, EU‑Verordnungen und internationalen Standards entschieden.
Fazit
Anthropics neuer PAC markiert einen Wendepunkt: KI‑Sicherheit wandert aus Forschungspapieren und Ethik‑Panels in Wahlkampfkassen und Gesetzgebungsverfahren. Damit wird sie zugleich politisches Argument und potenzielle Markteintrittsbarriere.
Ob daraus robuste Schutzmechanismen oder eher ein Fall von regulativer Vereinnahmung entsteht, hängt davon ab, wie transparent AnthroPAC agiert – und ob Zivilgesellschaft, Wissenschaft und europäische Regulierer genügend Gegengewicht aufbauen. Die zentrale Frage bleibt: Wer soll letztlich die Spielregeln für generative KI schreiben – demokratisch legitimierte Institutionen oder die Unternehmen, die diese Systeme entwickeln und vermarkten?



