Elon Musk hat bei xAI etwas getan, was man bei einem Hochrisiko‑KI‑Labor so gut wie nie sieht: Laut US‑Berichten ist keiner der ursprünglichen Mitgründer mehr an Bord – ausgerechnet in dem Moment, in dem die Firma „von Grund auf neu aufgebaut“ und unter das Dach von SpaceX gezogen wird. Für alle, die den Wettlauf um frontier‑Modelle verfolgen, ist das weit mehr als Personaldrama. Es geht um Governance, um die Frage, wer Hochrisiko‑KI kontrolliert, und um die Glaubwürdigkeit von xAI als Alternative zu OpenAI, Anthropic und Google.
Die Nachrichten in Kürze
Wie TechCrunch unter Berufung auf Business Insider berichtet, haben die letzten beiden verbliebenen Mitgründer von Elon Musks KI‑Startup xAI das Unternehmen verlassen.
Business Insider meldete zunächst, dass Manuel Kroiss – Chef des Pre‑Training‑Teams von xAI und direkter Bericht an Musk – seinem Umfeld mitgeteilt habe, dass er ausscheide. Kurz darauf folgte die Nachricht, dass auch Ross Nordeen, Musks „rechte Hand“ für operative Themen, das Unternehmen verlassen habe. Nordeen war zuvor bei Tesla und spielte eine Rolle bei der Planung der großen Entlassungswellen bei Twitter nach der Übernahme 2022.
Bereits Anfang März war berichtet worden, dass neun der insgesamt elf ursprünglichen Mitgründer xAI verlassen hatten. Musk räumte jüngst auf X ein, xAI sei beim ersten Anlauf nicht richtig aufgebaut worden und werde nun „von den Fundamenten her“ neu konstruiert.
Die Abgänge fallen in die Zeit, in der xAI von SpaceX übernommen wurde. Damit stehen SpaceX, xAI und X (ehemals Twitter) nun unter einem gemeinsamen Konzerndach, während SpaceX sich Medienberichten zufolge auf einen Börsengang vorbereitet. Laut TechCrunch reagierte xAI auf eine Anfrage um Stellungnahme zunächst nicht.
Warum das wichtig ist
Gründerwechsel gehören zum Startup‑Alltag. Ein vollständiges Ausscheiden der gesamten Gründungsmannschaft bei einem jungen frontier‑KI‑Labor ist jedoch ein Extremfall.
Für Musk bedeutet der Schritt eine weitere Machtkonzentration. Mit dem Weggang von Kroiss und Nordeen gibt es keine Mitgründer mehr, die strategische Entscheidungen hinterfragen, riskante Manöver ausbremsen oder für einen anderen technischen Kurs argumentieren könnten. xAI wird noch deutlicher zu einem persönlichen Projekt Musks – kulturell wie operativ.
Die Folgen sind spürbar:
Talentrekrutierung wird schwerer. Spitzenforscherinnen und ‑forscher können heute zwischen OpenAI, Anthropic, Google DeepMind, Meta und gut finanzierten Independent‑Labs wählen. Ein Unternehmen, aus dem binnen kurzer Zeit alle Gründer verschwinden und dessen Eigentümer öffentlich von einem „Neubau von Grund auf“ spricht, wirkt für Menschen, die Stabilität schätzen, nur bedingt attraktiv.
Governance‑Fragen werden lauter. Andere Labs stehen zwar ebenfalls in der Kritik, versuchen aber zumindest formal, die Interessen großer Investoren vom Tagesgeschäft zu trennen. xAI hingegen ist nun in Musks Privatkonglomerat eingebettet, ohne erkennbar unabhängige Kontrollinstanzen. Das mag effizient sein, dürfte aber Aufseher, Unternehmenskunden und künftige SpaceX‑Aktionäre nervös machen.
Das Ausführungsrisiko steigt. Kroiss verantwortete das Pre‑Training – das Herzstück jeder frontier‑Modellentwicklung. Dieses Know‑how genau in der Phase zu verlieren, in der man die Grundlagen neu aufsetzen will, ist ein massiver operativer Schock. Sofern keine starke zweite Führungsebene vorhanden ist, sind Verzögerungen praktisch vorprogrammiert.
Gewinner dieser Entwicklung sind in erster Linie Musk selbst, der noch mehr direkten Einfluss erhält, sowie konkurrierende Labs, die nun um abwandernde xAI‑Talente werben können. Verlierer sind alle, die auf xAI als ernstzunehmende, relativ unabhängige Alternative zur heutigen US‑KI‑Duopolstruktur gehofft hatten.
Der größere Kontext
Das Geschehen bei xAI fügt sich in ein bekanntes Muster Musks: ein Unternehmen gründen oder übernehmen, die Organisation radikal umbauen, Macht bündeln und dann um einen kleinen inneren Zirkel neu aufbauen. Ähnliche Muster waren bei Twitter/X mit Massenentlassungen und schnellen Strategiewechseln und bei Tesla mit harten Reorganisationen vor wichtigen Produktmeilensteinen zu beobachten.
Doch frontier‑KI ist kein E‑Auto und kein soziales Netzwerk. Die Entwicklung solcher Modelle ähnelt einem mehrjährigen Forschungsprogramm. Sie erfordert stabile Teams, institutionelles Wissen und eine sorgfältig abgestimmte Evolution von Datenpipelines, Recheninfrastruktur und Sicherheitsmechanismen.
In der übrigen Branche sehen wir eher den gegenteiligen Trend:
- OpenAI hat sich tief mit Microsoft verflochten und tauscht quasi‑Eigenkapital gegen langfristigen Cloud‑ und Kapitalsupport.
- Anthropic streut seine strategischen Partnerschaften bewusst zwischen mehreren Hyperscalern, um eine zu dominante Unternehmensmacht zu vermeiden.
- Google DeepMind baut seine Stärke auf langjährige Forschungsgruppen und Infrastrukturen, die diverse interne Umbauten bei Google überstanden haben.
Selbst unabhängige Labs sind zunehmend gezwungen, sich an große Cloud‑Anbieter zu binden – schlicht, weil frontier‑Modelle Milliardenbeträge an Rechenleistung, Talent und Data Engineering verschlingen.
Musk versucht einen anderen Weg: xAI soll über die Bilanz und Bewertung von SpaceX finanziert werden – einem Raumfahrt‑ und Satellitenunternehmen, dessen Daten (insbesondere aus Starlink) für KI‑Anwendungen in der Tat spannend sind. Strategisch kann das Sinn ergeben: intelligenteres Satelliten‑Routing, autonome Missionsplanung oder Inferenz am Netzwerkrand sind reale Use Cases.
Der vollständige Gründerabgang deutet jedoch auf einen kulturellen Konflikt zwischen der langfristigen, forschungsgetriebenen Natur frontier‑KI und Musks „Blitzkrieg‑Managementstil“. Historisch gesehen wurden Gründer in Tech‑Konzernen meist dann entmachtet, wenn Aufsichtsgremien einen übermächtigen CEO einhegen wollten – man denke an Apple in den 1980er‑Jahren oder Uber um 2017. Bei xAI scheint es umgekehrt: Der übermächtige CEO bleibt, die Mitgründer gehen.
Die zentrale Frage lautet daher: Wird xAI als belastbare Institution aufgebaut – oder als hochkonzentriertes Machtinstrument innerhalb eines ohnehin schon außergewöhnlich einflussreichen Privatimperiums?
Die europäische / DACH‑Perspektive
Für europäische Nutzerinnen und Nutzer sowie Unternehmen ist xAI weniger wegen eines Chatbots auf X interessant, sondern wegen der Frage, auf welcher Governance‑Basis künftige KI‑Infrastruktur entsteht.
Die EU‑Regulierung – vom AI Act über die DSGVO bis hin zum Digital Services Act – zielt auf klare Verantwortlichkeiten, nachvollziehbare Risikoanalysen und wirksame Trennung von Plattform, Datenhaltung und Hochrisiko‑Systemen. Ein KI‑Labor, das de facto Teil eines von einer Person dominierten Privatkonzerns ist, wird es schwer haben, das Vertrauen europäischer Aufseher und Unternehmenskunden zu gewinnen.
Gleichzeitig positionieren sich europäische Player wie Aleph Alpha (Heidelberg), Mistral (Paris) oder auch spezialisierte Anbieter wie DeepL aus Köln ganz bewusst über Vertrauen, Datenschutz und europäische Werte. Ihr Pitch in Richtung Finanzsektor in Frankfurt, Industrie in Baden‑Württemberg oder Mittelstand in Österreich und der Schweiz lautet: modernste Modelle ja, aber ohne Black‑Box‑Strukturen amerikanischer Großkonzerne.
Vor diesem Hintergrund wirken der Gründerexodus und die Eingliederung von xAI in SpaceX eher wie ein Warnsignal für DACH‑Unternehmen, die ohnehin zögern, noch eine weitere kritische Abhängigkeit von US‑Plattformen einzugehen. Gerade in Deutschland, wo Datenschutz kulturell tief verankert ist und Musk mit X bereits im Konflikt mit europäischen Behörden stand, dürfte die Vorstellung, dass derselbe Akteur Raketen, Satelliten, ein soziales Netzwerk und ein frontier‑KI‑Labor kontrolliert, die Rufe nach strikter Aufsicht verstärken.
Andererseits sind die abwandernden xAI‑Ingenieurinnen und ‑Forscher genau die Profile, um die KI‑Zentren in Berlin, München oder Zürich werben. Wer als europäischer Anbieter mit seriöser Governance und klaren Forschungsfreiheiten punkten kann, hat hier eine seltene Chance.
Ausblick
In den kommenden 12–18 Monaten sind drei Entwicklungen besonders wahrscheinlich.
Erstens ein technischer und markenseitiger Neustart von xAI unter dem SpaceX‑Dach. Musk wird versuchen, xAI nicht nur als Chatbot‑Lieferanten für X, sondern als Intelligenzschicht über Starlink, Raumfahrtlogistik und möglicherweise Tesla‑nahe Projekte zu positionieren. Ankündigungen zu neuen Großtrainings, GPU‑Superclustern und einer engen Verzahnung von Satellitendaten und KI‑Modellen sind zu erwarten.
Zweitens eine Offensive bei der Personalgewinnung. Um das Bild eines ausgehöhlten Labs zu korrigieren, braucht Musk sichtbare, glaubwürdige KI‑Führungskräfte – idealerweise mit DeepMind‑, OpenAI‑ oder Spitzenuni‑Background. Wie viele dieser Leute bereit sind, in ein Umfeld mit starker Personenzentrierung und Daueröffentlichkeit zu wechseln, wird zum Lackmustest.
Drittens mehr Transparenz über den Finanzmarkt. Sollte SpaceX tatsächlich Richtung Börse gehen, werden Emissionsprospekte erstmals offenlegen, welchen Anteil xAI an Umsatz, Kosten und Story des Gesamtkonzerns hat. Dann wird klarer, ob xAI ein echter Profitmotor oder eher ein strategisches Asset in Musks Erzählung eines vertikal integrierten Space‑Connectivity‑AI‑Konzerns ist.
Offen bleiben kritische Fragen: Bleibt xAI als eigene Marke erhalten oder verschwindet es hinter SpaceX‑Produkten? Sucht man aktiv Geschäft in streng regulierten EU‑Branchen – und falls ja, unter welchen Compliance‑Strukturen? Und wie reagieren Brüssel, Berlin und nationale Aufseher, wenn Raumfahrt, Satelliteninternet, Social Media und frontier‑KI in der Hand eines einzigen privaten Akteurs liegen?
Fazit
Der komplette Abgang aller Mitgründer von xAI, just in dem Moment, in dem das Unternehmen in SpaceX integriert und „von den Fundamenten her“ neu aufgebaut wird, sendet ein klares Signal: xAI ist kein klassisches Startup mehr, sondern ein Instrument in Musks persönlicher Machtarchitektur. Das kann zu radikal integrierten Produkten führen – oder dazu, dass genau die Talente und Partner fernbleiben, die ein frontier‑Labor braucht. Die zentrale Frage für Europa lautet: Wollen wir unsere künftige KI‑Infrastruktur auf einer derart konzentrierten Machtbasis aufbauen?



