Überschrift & Einstieg
Der Mythos der „PayPal-Mafia“ bekommt einen Nachfolger – und diesmal geht es nicht um Zahlungsverkehr, sondern um die kognitive Infrastruktur der Welt. Rund um ehemalige Beschäftigte von OpenAI ist ein dichtes Geflecht von KI-Startups entstanden, das von Foundation Models über KI-Suche und Agenten bis hin zu Robotik, Klima-Tech und Materialforschung reicht. Das ist weit mehr als Silicon-Valley-Folklore. Diese „OpenAI-Mafia“ entwickelt sich zu einem der wichtigsten Machtfaktoren im globalen KI-Ökosystem. Im Folgenden analysiere ich, was die von TechCrunch zusammengestellte Liste dieser Alumni-Gründungen über Kapital, Konkurrenz und Regulierung verrät – und was das für den DACH-Raum bedeutet.
Die Nachricht in Kürze
Laut TechCrunch wurden in den vergangenen Jahren mindestens 18 prominente Startups von ehemaligen OpenAI-Mitarbeiterinnen und -Mitarbeitern gegründet. Dazu zählen direkte Konkurrenten wie Anthropic und Elon Musks xAI, spezialisierte Anbieter wie Perplexity (KI-Suche), Adept und Applied Compute (KI-Agenten für Unternehmen), Covariant und Prosper Robotics (Robotik) sowie DeepTech-Unternehmen wie Periodic Labs (Materialentdeckung) oder Living Carbon (gentechnisch optimierte Pflanzen zur CO₂-Bindung).
Mehrere dieser Firmen spielen bereits in der obersten Bewertungsliga. TechCrunch nennt für Anthropic rund 380 Milliarden US‑Dollar, für Safe Superintelligence 32 Milliarden noch vor Produktstart, für Perplexity 20 Milliarden und für Thinking Machines Lab 12 Milliarden. Andere wie Periodic Labs und Adept haben im Frühstadium Finanzierungsrunden in dreistelliger Millionenhöhe eingesammelt.
Räumlich konzentriert sich das Netzwerk stark auf die Bay Area, mit Satelliten in London und Tel Aviv. Viele Alumni treten zugleich als Investorinnen und Investoren auf oder arbeiten später wieder mit OpenAI zusammen. So entsteht eine eng verflochtene Alumni-Ökologie aus Gründern, Wagniskapitalgebern und Big-Tech-Konzernen.
Warum das wichtig ist
Die „OpenAI-Mafia“ ist kein harmloser Spitzname, sondern ein Symptom für eine rapide Machtkonzentration an der Spitze der KI‑Entwicklung.
Zunächst lenkt sie Kapital wie ein Gravitationsfeld. In einer Zeit, in der viele Gründerinnen in der Seed‑Phase an ein paar Millionen scheitern, fließen bei OpenAI‑Spin‑offs hunderte Millionen oder sogar Milliarden, obwohl es teils noch gar kein ausgereiftes Produkt gibt. Entscheidend ist weniger der Businessplan als das Signal: „Dieses Team hat OpenAI von innen gesehen.“ Investoren wetten darauf, dass sich über dieses Netzwerk leichter Compute‑Ressourcen, Talente, Vertriebskanäle und politische Kontakte erschließen lassen.
Davon profitieren die Alumni selbst, ihre vertrauten Investoren – und große Plattformkonzerne. Amazon etwa holte gleich ganze Gründerteams von Adept und Covariant ins Haus, um Fähigkeiten zu akquirieren, ohne OpenAI direkt kaufen zu müssen. Für Konzerne, die ohnehin im Fokus der Wettbewerbsbehörden stehen, ist das deutlich weniger heikel.
Die Verlierer sind schwerer zu erkennen. Unabhängige KI‑Startups ohne diesen Stempel tun sich immer schwerer, Aufmerksamkeit, Kapital und vor allem Zugang zu GPUs zu bekommen. Und aus gesellschaftlicher Sicht verschiebt sich die Macht, grundlegende Weichenstellungen für KI zu treffen, in die Hände eines relativ homogenen Zirkels – geprägt von der Kultur, den Risikobildern und den wirtschaftlichen Anreizen eines einzigen Labors.
Damit droht weniger ein klassisches Monopol als eine Art informelles Kartell: viele Firmen, aber ein gemeinsames Mindset, ähnliche technische Roadmaps und eng verflochtene Eigentümerstrukturen.
Das größere Bild
Alumni‑Netzwerke, die ganze Branchen prägen, sind nichts Neues. Die PayPal‑Mafia steht für Tesla, SpaceX, LinkedIn und Co. Ex‑Googler und Ex‑Facebooker haben den SaaS‑Boom befeuert. Doch die OpenAI‑Welle unterscheidet sich in drei Punkten.
Erstens: extreme Kapitalintensität. Frontier‑Modelle und KI‑Forschungslabore benötigen Milliardeninvestitionen in Rechenzentren und Spezialhardware. Wer solche Summen mobilisieren will, braucht Storytelling und Reputation auf einem Niveau, das nur wenige schaffen. Ein „ex‑OpenAI“ auf dem Lebenslauf wirkt wie ein Generalschlüssel zu diesen Summen – und verstärkt damit die Dominanz des bestehenden Ökosystems.
Zweitens: Systemrelevanz. Die Produkte dieser Alumni sind keine „netten Apps“, sondern Bausteine einer künftigen Informations- und Entscheidungsinfrastruktur. KI‑Suche bestimmt, welche Inhalte Nutzer sehen; KI‑Agenten greifen tief in Arbeitsprozesse ein; Labs wie Periodic Labs könnten künftig Materialien und vielleicht eines Tages auch Pharmaforschung prägen. Fehler, Verzerrungen oder Sicherheitslücken in diesen Systemen hätten weitreichende Folgen.
Drittens: durchlässige Grenzen. Die TechCrunch‑Liste enthält bereits Fälle, in denen Gründer OpenAI verlassen, einen Konkurrenten aufbauen (Anthropic, xAI) und dann teilweise zurückkehren oder eng mit dem Ursprungsökosystem zusammenarbeiten. Diese personelle Zirkulation macht es schwierig, von wirklich unabhängigen Wettbewerbern zu sprechen – und stellt Wettbewerbs- wie Aufsichtsbehörden vor neue Fragen.
Parallel dazu sehen wir drei Makrotrends:
- Big Tech ersetzt klassische Übernahmen verstärkt durch „Acqui‑Hiring“ ganzer Teams, um Antitrust‑Risiken zu verringern.
- Eine globale Klasse von „AI Natives“ etabliert informelle technische und ethische Standards schneller, als Regulatoren reagieren können.
- Spezialisierte Vertikalen – von KI‑Agenten über Klima‑KI bis Robotik – werden bereits im Gründungsmoment durch Alumni aus dem OpenAI‑Kosmos dominiert.
Die 2010er waren das Jahrzehnt der Startup‑Ökosysteme; die 2020er werden zum Jahrzehnt der Talent‑Ökosysteme – und das mächtigste sitzt derzeit in San Francisco.
Die europäische / DACH-Perspektive
Für Europa – und speziell den DACH‑Raum – ist diese Entwicklung Ambivalenz pur.
Auf der einen Seite droht eine strukturelle Abhängigkeit: Wenn die zentralen KI‑Plattformen und ein Großteil der darauf aufbauenden Innovation von einem engen US‑Netzwerk kontrolliert werden, bleibt Europa in der Rolle des „regulierten Anwenders“. Wir setzen dann zwar mit dem AI Act, der DSGVO und dem Digital Markets Act wichtige Leitplanken, aber die eigentliche technische Richtung wird anderswo beschlossen.
Auf der anderen Seite existieren auch hier Keimzellen eigener „Mafias“: DeepMind‑Alumni in London und Berlin, Ex‑DeepL‑Leute im Bereich Sprachmodelle, Spin‑offs aus ETH Zürich, EPFL, TUM, KIT oder der TU Wien. In Berlin, München und Zürich entstehen Labore, die nicht nur Anwendungen bauen, sondern selbst Modelle trainieren – etwa im Open‑Source‑Bereich.
Europäische Besonderheiten können ein Vorteil sein: der hohe Stellenwert von Datenschutz, der starke Industrie‑Mittelstand, der reale Anwendungsfälle (Produktion, Mobilität, Energie) einbringt, und Förderinstrumente wie IPCEI oder EIC‑Fonds. Doch ohne signifikant größere Wagniskapital‑Töpfe und eine aktivere öffentliche Beschaffung – sprich: Bund, Länder, Kantone und EU‑Institutionen, die bewusst europäische KI einkaufen – wird die Schwerkraft des OpenAI‑Netzwerks kaum zu brechen sein.
Für die besonders datensensiblen Märkte Deutschland, Österreich und Schweiz stellt sich zudem die Frage: Wollen wir zentrale Unternehmensprozesse an ein eng verknüpftes US‑Ökosystem ausliefern, dessen Governance wir nur am Rande beeinflussen können?
Ausblick
In den nächsten Jahren zeichnen sich mehrere Entwicklungen ab, die man im Blick behalten sollte.
1. Zweite Gründerwelle nach IPOs. Sollten OpenAI und Anthropic tatsächlich an die Börse gehen, werden viele Frühbeschäftigte über Nacht zu potenziellen Business Angels oder Seriengründern. Eine zweite Welle von Alumni‑Startups – diesmal noch stärker spezialisiert – dürfte ab etwa 2027 Realität werden.
2. Aufsichtsbehörden entdecken Netzwerke. Bisher betrachten Wettbewerbsbehörden und KI‑Regulierer Unternehmen meist einzeln. Angesichts der „OpenAI-Mafia“ wird man über Netzwerklogiken sprechen müssen: gemeinsame Großinvestoren, persönliche Verflechtungen, wechselseitige Beteiligungen. Die Frage, ob hier faktische Abstimmung ohne formale Kartellabsprachen stattfindet, wird aufkommen.
3. Kampf um Standards. Ob es um Transparenz bei KI‑Suche (Perplexity), Sicherheitsnarrative bei „Superintelligenz“ (SSI) oder Datennutzung durch Agenten (Adept, Applied Compute, Worktrace) geht – viele Standards werden faktisch in diesem Netzwerk gesetzt, lange bevor Normungsinstitute oder EU‑Gremien reagieren. Europa muss entscheiden, wo es diese Standards akzeptiert und wo es bewusst Gegenakzente (z. B. über den AI Act oder Förderprogramme für Open‑Source‑Modelle) setzt.
Für Gründerinnen und Gründer im DACH‑Raum liegt darin eine strategische Chance: Positionieren Sie sich als komplementäre, nicht abhängige Alternative – mit Fokus auf europäische Compliance, Transparenz, energieeffiziente Modelle und tiefe Integration in reale Industrien statt nur in Consumer‑Apps.
Fazit
Die „OpenAI‑Mafia“ markiert einen Machtwechsel: Weg von einzelnen Tech‑Konzernen, hin zu dichten Alumni‑Netzwerken, die Kapital, Talente und Deutungsmacht bündeln. Das kann Innovation atemberaubend beschleunigen – birgt aber das Risiko, dass eine kleine, kulturell homogene Gruppe definiert, wie KI weltweit funktioniert. Für Europa lautet die entscheidende Frage: Bleiben wir Statisten in diesem Drehbuch oder schreiben wir eine eigene Fassung mit eigenen, starken KI‑Netzwerken?



