Rechenzentren im All: Starcloud ist ein Unicorn, aber das Geschäftsmodell hängt an SpaceX

1. April 2026
5 Min. Lesezeit
Illustration von Satelliten in Erdumlaufbahn als weltraumgestützte Rechenzentren

Überschrift und Einstieg

Die KI‑Industrie stößt an sehr irdische Grenzen: Stromnetze, Genehmigungsverfahren, Bürgerinitiativen gegen neue Rechenzentren. Starcloud bietet Investoren nun eine radikale Ausweichroute – nach oben. Mit 170 Millionen Dollar in der Series A und einer Bewertung von rund 1,1 Milliarden Dollar gehört das Unternehmen laut TechCrunch zu den am schnellsten gewachsenen Unicorns nach Y Combinator. Doch die ökonomische Logik des Geschäfts greift erst, wenn SpaceX’ Superrakete Starship zuverlässig und günstig fliegt. Dieser Artikel ordnet ein, warum gerade jetzt so viel Geld ins „Orbit‑Cloud“-Narrativ fließt, welche Risiken übersehen werden und was das für Europa und den DACH‑Raum bedeutet.

Die Nachricht in Kürze

Wie TechCrunch berichtet, hat Starcloud eine Series‑A‑Finanzierungsrunde über 170 Millionen US‑Dollar abgeschlossen. Die Runde, angeführt von Benchmark und EQT Ventures, bewertet das Unternehmen mit etwa 1,1 Milliarden Dollar. Insgesamt hat Starcloud damit rund 200 Millionen Dollar eingesammelt.

Starcloud entwickelt Rechenzentren im Weltraum. Im November 2025 startete ein erster Satellit mit einer Nvidia‑H100‑GPU, auf der KI‑Modelle direkt in der Umlaufbahn ausgeführt wurden. Noch in diesem Jahr soll Starcloud‑2 folgen – mit mehreren GPUs (darunter der neuen Blackwell‑Generation von Nvidia), einem AWS‑Server‑Blade sowie einem System zum Bitcoin‑Mining.

Das langfristige Ziel ist Starcloud‑3: ein etwa drei Tonnen schwerer, rund 200‑Kilowatt‑starker Satellit, der mit SpaceX’ wiederverwendbarer Schwerlastrakete Starship gestartet und über das für Starlink entwickelte „PEZ‑Dispenser“-System ausgesetzt werden soll. Unter der Annahme, dass Startkosten in Richtung 500 Dollar pro Kilogramm fallen, erwartet das Unternehmen Stromkosten im Bereich weniger US‑Cent pro Kilowattstunde – also in der Nähe großer Rechenzentren auf der Erde. Realistischer Zugang zu Starship wird aber frühestens um 2028/2029 gesehen.

Warum das wichtig ist

Starcloud adressiert drei gleichzeitig eskalierende Probleme: die explodierende Energienachfrage durch KI, die politische Blockade bei neuen Rechenzentren und die Kostenobergrenze der heutigen Trägerraketen. Genau diese Kombination macht das Thema aus Investorensicht spannend – trotz langer Unsicherheitsphase.

Auf der Nachfrageseite bauen Hyperscaler Cluster mit zehntausenden GPUs auf. Netzbetreiber in den USA und Europa warnen, dass neue KI‑Regionen mehrere Gigawatt Leistung verschlingen. In Deutschland erleben wir bereits, wie Proteste gegen Rechenzentren zunnehmen – Stichwort Flächenverbrauch, Lärm, Wasserbedarf, CO₂‑Bilanz. Ein Rechenzentrum im All kennt keine kommunalen Bauausschüsse.

Auf der Angebotsseite wirkt der Orbit verlockend: große, saubere Solarleistung, Vakuum als natürlicher Kühlkörper und direkte Sichtverbindung zu Bodenstationen. Für bestimmte Workloads – Erdbeobachtung, militärische Aufklärung, zukünftige Deep‑Space‑Missionen – ist es sinnvoller, Daten vor Ort auszuwerten statt massenhaft Rohdaten zur Erde zu funken.

Die potenziellen Verlierer sind klassische Colocation‑Betreiber und Standorte, die heute von günstigen Stromdeals leben. Wenn ein Teil der Last mittel‑ bis langfristig in den Orbit wandert, sinkt die Anziehungskraft dieser „Billig‑Standorte“. Gleichzeitig verschiebt sich Macht hin zu jenen Akteuren, die Raketen, Satellitenbusse und KI‑Chips kontrollieren.

Der Haken: Starclouds Kostenvorteil steht und fällt mit Annahmen über Starships Startkosten und Flugfrequenz, für die es heute keinerlei empirische Daten gibt. Die Finanzierungsrunde ist damit implizit auch eine Wette auf den Ausführungswillen eines anderen Unternehmens – SpaceX.

Der größere Kontext

Starclouds Runde fügt sich in mehrere parallele Entwicklungen.

Erstens: der „Compute‑Schock“ durch generative KI. Große Cloud‑Anbieter planen weltweit Rechenzentren im zweistelligen Gigawatt‑Bereich. In den USA sehen wir, wie Bundesstaaten mit extrem günstigen Stromtarifen um Hyperscaler buhlen, während Anwohner wachsendes Unbehagen äußern. Im DACH‑Raum sind große Campus‑Projekte politisch deutlich schwerer durchzusetzen. In dieser Situation erscheint das Weltall als „unendliche“ Energie‑ und Flächenreserve – zumindest auf PowerPoint‑Folien.

Zweitens: eine entstehende Nische „Space Compute“. Laut TechCrunch arbeiten neben Starcloud u. a. Aetherflux, Aethero sowie Googles Project Suncatcher an ähnlichen Konzepten. Nvidia wiederum positioniert mit den Vera‑Rubin‑Space‑Modulen eine Produktlinie, die speziell für den orbitaleinsatz gedacht ist. Wenn der dominierende GPU‑Hersteller eine Raumfahrt‑Roadmap zeichnet, ist das kein Randphänomen mehr.

Drittens: die historische Parallele zu CDNs und Unterseekabeln. Als Bandbreite knapp war, entstanden Content‑Delivery‑Netzwerke; als internationale Datenströme explodierten, bauten Hyperscaler eigene Glasfaserkabel unter den Ozeanen. In beiden Fällen verschob sich Wertschöpfung von nationalen Infrastrukturen zu globalen Plattformen. Orbitalrechenzentren wären die nächste Stufe dieser Entwicklung – mit noch schwächerer staatlicher Kontrolle.

Im Wettbewerb hat SpaceX eine Sonderrolle. Der Konzern hat bei der US‑Regierung bereits Pläne für eine gigantische Konstellation verteilter Rechensatelliten einge­reicht, primär zur Versorgung eigener Dienste wie Grok oder Tesla‑Flotten. Sollte daraus perspektivisch ein externer Cloud‑Dienst werden, müssten sich Unternehmen wie Starcloud zwangsläufig als Spezialisten positionieren – etwa für besonders energieeffiziente Plattformen oder regulatorisch sensible Szenarien, in denen SpaceX nicht auftreten möchte.

Die europäische und DACH‑Perspektive

Für Europa – und speziell den DACH‑Raum – hat die Entwicklung mehrere Ebenen.

Einerseits könnte orbitales Compute einige strukturelle Nachteile ausgleichen: fragmentierte Strommärkte, knappe Flächen in Ballungsräumen, hohe gesellschaftliche Sensibilität für Datenschutz und Umwelt. Deutsche, österreichische und Schweizer KI‑Unternehmen könnten auf zusätzliche Rechenkapazität zugreifen, ohne Gigaprojekte vor der eigenen Haustür durchsetzen zu müssen.

Andererseits droht eine neue Abhängigkeit. Schon heute laufen viele kritische Workloads auf US‑Hyperscalern. Wenn auch der „Weltraum‑Layer“ von amerikanischen Firmen – SpaceX, Nvidia, US‑Startups – kontrolliert wird, geraten die Ziele von Digitalem Binnenmarkt, Data Act und GAIA‑X ins Hintertreffen. Europäische Initiativen zur „technologischen Souveränität“ sehen bisher keinen ernsthaften Plan für orbitales Computing vor.

Hinzu kommen Rechtsfragen: Wie wendet man die DSGVO auf Daten an, die auf einem Satelliten außerhalb jeder nationalen Hoheitszone verarbeitet werden? Juristisch dürfte der Sitz des Verantwortlichen und der Bodenstation ausschlaggebend sein, nicht der physische Ort der Bits. Dennoch werden Aufseher in Deutschland, Österreich und der Schweiz genau hinsehen, ob etwa Gesundheits‑ oder Standortdaten in eine Grauzone verschoben werden.

Die europäische Trägerlandschaft – von Ariane 6 über deutsche Microlauncher bis hin zu Vega – wird Starship preislich kaum schlagen können, falls SpaceX seine Ziele erreicht. Das zwingt hiesige Akteure, sich auf andere Teile der Wertschöpfungskette zu konzentrieren: Missionsplanung, Orchestrierung, Sicherheit, regulatorische Zertifizierung. Hier liegt eine echte Chance für das Berliner, Münchner oder Zürcher Startup‑Ökosystem.

Ausblick

Wie geht es weiter? Die technische Vision von Starcloud steht und fällt mit drei Faktoren:

  1. Starship‑Realität vs. Starship‑Hype. Schafft SpaceX es, Starship bis Ende des Jahrzehnts mit hoher Kadenz und tatsächlich niedrigen Startkosten zu betreiben? Oder bleiben Flüge selten und teuer? Jede Verzögerung verschiebt die Wirtschaftlichkeit orbitaler Rechenzentren um Jahre.

  2. Reifegrad von Space‑Hardware. Der erste H100‑Einsatz im All war laut TechCrunch zwar ein Meilenstein, aber nicht ohne Ausfälle. Strahlung, thermisches Management und Synchronisation vieler GPUs sind ungelöste Probleme. Kurzfristig werden eher kleinere, robuste Inferenz‑Workloads realistisch sein als gigantische Trainingsjobs.

  3. Nachfrage jenseits des Marketings. Finden sich in den nächsten drei bis fünf Jahren reale Kunden, die für Compute im Orbit bezahlen – außer anderen Raumfahrtunternehmen? Denkbar wären Militär, Geheimdienste, Betreiber großer Erdbeobachtungskonstellationen oder regulierungssensitive Branchen.

Für Beobachter im DACH‑Raum lohnt es sich, auf konkrete Signale zu achten: tauchen Orbital‑Compute‑Optionen bei europäischen Förderprogrammen (z. B. ESA, Horizon Europe) auf? Investieren große Cloud‑Anbieter mit Standorten in Frankfurt, Zürich oder Wien in Weltraum‑Partnerschaften? Und ganz banal: existiert 2030 überhaupt ein regulärer Starship‑Flugplan?

Risiken sind klar: technische Fehlschläge, Startverzögerungen, Weltraummüll‑Debatten und regulatorische Interventionen. Chancen liegen dort, wo Europa traditionell stark ist: Sicherheitsarchitekturen, Normung, Industriekooperationen – etwa zwischen Luft‑ und Raumfahrtkonzernen und Cloud‑Anbietern.

Fazit

Starcloud macht Rechenzentren im All plötzlich investierbar. Die Idee adressiert reale Engpässe bei Energie, Flächen und Politik – doch sie ist aktuell mehr Wette auf SpaceX und die KI‑Nachfrage in zehn Jahren als kurzfristige Konkurrenz zum Rechenzentrum um die Ecke. Für Europa und den DACH‑Raum stellt sich weniger die Frage, ob orbitales Computing kommt, sondern wer die Spielregeln definiert. Wollen wir nur Kunde im All‑Cloud‑App‑Store sein oder aktiv an der Infrastruktur mitbauen?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.