Ricursive bei 4 Milliarden Dollar: Wenn KI ihre eigenen Chips entwirft

27. Januar 2026
5 Min. Lesezeit
Schematische Darstellung eines Computerchips, der von KI-Algorithmen entworfen wird

Überschrift & Einstieg

Die KI‑Branche hat GPUs zum neuen Öl gemacht – Ricursive will nun die Förderplattformen selbst automatisieren. Ein kaum zwei Monate altes Startup erreicht eine Bewertung von 4 Milliarden US‑Dollar, nur mit dem Versprechen, ein System zu bauen, in dem KI die Chips entwirft und verbessert, auf denen sie später läuft. Gelingt das, könnte sich der Fortschritt in der Hardware dramatisch beschleunigen – mit tiefgreifenden Folgen für Nvidia, die EDA‑Branche und Europas ohnehin fragile Halbleiter‑Souveränität. In diesem Beitrag ordnen wir ein, was Ricursive tatsächlich plant, warum Investoren hunderte Millionen vorab zahlen und welche Rolle der DACH‑Raum in diesem neuen Infrastruktur‑Wettrennen spielt.

Die Nachricht in Kürze

Laut TechCrunch hat Ricursive Intelligence eine Series‑A‑Finanzierungsrunde über 300 Millionen US‑Dollar zu einer Bewertung von 4 Milliarden US‑Dollar abgeschlossen – nur zwei Monate nach dem offiziellen Start des Unternehmens. Die Runde wurde von Lightspeed angeführt, beteiligt sind außerdem DST Global, NVentures (der Venture‑Arm von Nvidia), Felicis Ventures, 49 Palms Ventures und Radical AI. Insgesamt hat Ricursive damit 335 Millionen US‑Dollar eingesammelt, wie auch die New York Times berichtet.

Ricursive entwickelt ein KI‑System, das spezialisierte KI‑Chips entwerfen und anschließend automatisch verbessern soll. Nach Angaben des Startups soll die Technologie eine eigene Silizium‑Substratschicht erzeugen und Chip‑Designs iterativ anpassen, um KI‑Workloads zu beschleunigen. Die Gründerinnen Anna Goldie (CEO) und Azalia Mirhoseini (CTO) kommen von Google; ihr Ansatz des Reinforcement Learnings für Chip‑Layouts (AlphaChip) wird bereits in vier Generationen von Googles TPU‑Beschleunigern eingesetzt. TechCrunch ordnet Ricursive in eine kleine, aber wachsende Gruppe von Startups ein, die an selbstverbessernden KI‑Systemen für Hardware arbeiten – darunter auch Naveen Raos Unconventional AI und ein weiteres Unternehmen namens Recursive.

Warum das wichtig ist

Oberflächlich betrachtet ist dies nur die nächste überdimensionierte KI‑Finanzierungsrunde. Tatsächlich markiert sie aber eine Verschiebung des Fokus: Weg von immer größeren Modellen, hin zur Neugestaltung der physischen Grundlage, auf der diese Modelle laufen.

Die potenziellen Gewinner, falls Ricursives Vision aufgeht, sind klar:

  • Hyperscaler und große KI‑Labore könnten dedizierte Chips erhalten, die exakt auf ihre Workloads zugeschnitten sind – statt auf generische GPUs angewiesen zu sein.
  • Ricursive und seine Investoren sichern sich Einfluss auf das knappste Gut der KI‑Ökonomie: hochperformante Rechenressourcen.
  • Nvidia diversifiziert sein Portfolio und hält sich die Option offen, von einem möglichen Paradigmenwechsel in der Chip‑Entwicklung zu profitieren, anstatt davon überrascht zu werden.

Die möglichen Verlierer:

  • Klassische EDA‑Anbieter (Synopsys, Cadence, Siemens EDA) geraten unter Druck, wenn KI‑basierte Design‑Loops bei bestimmten KI‑Lasten bessere Ergebnisse liefern als ihre traditionellen Tools.
  • Zweit- und Drittanbieter im Cloud‑Markt, inklusive vieler europäischer Provider, könnten noch stärker vom Zugang zu konkurrenzfähiger Hardware abgeschnitten werden, wenn die besten Chips im Rahmen exklusiver Co‑Design‑Programme entstehen.
  • Regulierer und Sicherheitsforscher sehen sich mit der Gefahr konfrontiert, dass sich Hardwarerunden schneller drehen als die heute angenommenen Technologiezyklen.

Kurzfristig ist der wichtigste Effekt ein Signal an den Markt: Eine Bewertung von 4 Milliarden US‑Dollar macht „selbstoptimierende Infrastruktur“ zum neuen Investment‑Narrativ nach den Foundation Models. Praktisch jedes große KI‑Haus denkt bereits über Hardware/Software‑Co‑Design nach; Ricursives Runde zeigt, dass Wagniskapital bereit ist, dafür Bewertungen auf Höhe der besten Jahre des 2021‑Booms zu zahlen.

Der größere Kontext

Ricursive steht exemplarisch für einen übergeordneten Trend: die vertikale Integration des KI‑Stacks – von der Anwendung bis hinunter zum Transistor.

Die erste Welle dieses Trends haben wir bereits gesehen: Cloud‑Konzerne wie Google, Amazon, Microsoft oder Meta haben eigene Beschleuniger entwickelt, weil Standard‑GPUs nicht mehr ausreichen. Die nächste Welle geht eine Ebene tiefer: nicht nur eigene Chips, sondern lernende Systeme, die diese Chips fortlaufend neu entwerfen.

Die Geschichte der Electronic Design Automation (EDA) ist eine Abfolge solcher Automatisierungssprünge: von manuellem Layout zu automatisierter Platzierung, von Standardzellen zu High‑Level‑Synthese. Jedes Mal stieg die Komplexität der Systeme, die man überhaupt bauen konnte. Ricursive und ähnliche Firmen schlagen nun den nächsten Sprung vor: Reinforcement‑Learning‑basierte Optimierungsschleifen, die speziell auf KI‑Workloads zugeschnitten sind – und später vielleicht sogar auf konkrete Modellarchitekturen.

Der ökonomische Anreiz ist enorm. Das Training von Spitzenmodellen verschlingt heute bereits immense Summen an Rechenzeit und Energie. Wenn einzelne Trainingsläufe dreistellige Millionenbeträge an Infrastruktur binden, machen selbst wenige Prozent Effizienzgewinn bei Energie oder Auslastung einen gewaltigen Unterschied in der Gewinn‑ und Verlustrechnung. Ein System, das aus realen Telemetriedaten lernt und daraufhin Layout, Speicherhierarchien und Interconnects anpasst, ist aus Sicht der Betreiber hochattraktiv.

Damit verschiebt sich auch das Leistungsmaß im KI‑Wettrennen. Heute vergleichen wir Parameterzahlen und Kontextlängen. Morgen wird Fähigkeit pro Watt und pro Dollar entscheidend sein – und diese hängt maßgeblich davon ab, wie eng Modelle, Compiler, Laufzeitumgebung und Hardware miteinander co‑designt werden. Genau hier positioniert sich Ricursive.

Trotzdem bleibt ein großes Fragezeichen: Eine konkurrenzfähige Chip‑Generation zu entwerfen, zu verifizieren und in Stückzahlen zu produzieren, dauert Jahre und kostet Milliarden. Einige Forschungsarbeiten und ein beeindruckender Lebenslauf ersetzen diese Realität nicht. Die Wette der Investoren lautet jedoch: Der nächste „Nvidia‑Moment“ entsteht nicht allein durch einen besseren Chip, sondern durch eine sich selbst verbessernde Design‑Maschinerie rund um diesen Chip.

Die europäische und DACH‑Perspektive

Aus europäischer Sicht ist Ricursives Runde ein weiterer Weckruf. Während die EU mit dem europäischen Chip‑Gesetz versucht, Fertigungskapazitäten aufzubauen und „Silicon Saxony“ oder Crolles zu stärken, entstehen die radikalsten Konzepte für KI‑native Design‑Tools fast ausschließlich im Silicon Valley.

Für Deutschland, Österreich und die Schweiz ist das besonders heikel. Die Region ist stark in Industrie‑Elektronik, Automobil‑Chips und Leistungselektronik (Infineon, NXP, STMicroelectronics, Bosch), aber schwach bei hochspezialisierter KI‑Hardware und zugehörigen Software‑Stacks. Wenn die nächste Beschleuniger‑Generation durch proprietäre KI‑Design‑Pipelines definiert wird, riskieren europäische Player, erneut zum „Price Taker“ zu werden: Sie kaufen Black‑Box‑Chips, die im Ausland – und auf fremden Datensätzen – optimiert wurden.

Regulatorisch passt das kaum zu Europas Selbstbild. Die DSGVO, der Digital Services Act, der Digital Markets Act und die kommende EU‑KI‑Verordnung zielen vorrangig auf Anwendungen, Datenflüsse und Marktmacht. Automatisierte Hardware‑Design‑Pipelines liegen außerhalb des bisherigen Fokus, obwohl sie faktisch über Leistungsfähigkeit, Energieverbrauch und damit auch über ökologische Auswirkungen entscheiden werden.

Es gibt Lichtblicke: Forschungszentren wie das Jülich Supercomputing Centre, die ETH Zürich oder die TU München beschäftigen sich intensiv mit Co‑Design von Algorithmen und Hardware. Startups im DACH‑Raum arbeiten an RISC‑V, Spezialbeschleunigern oder neuromorpher Hardware. Doch kaum jemand kommuniziert eine so aggressive Vision einer selbstoptimierenden „intelligenten Substratschicht“ wie Ricursive.

Für europäische Politik und Industrie ergibt sich daraus eine klare Aufgabe: Wer digitale Souveränität ernst meint, darf nicht nur über Rechenzentren und Cloud reden, sondern muss auch die Werkzeuge der Chip‑Entwicklung als strategische Infrastruktur begreifen.

Ausblick

Was ist in den nächsten 18–24 Monaten von Ricursive und seinen Mitbewerbern zu erwarten?

  • Konkrete Tape‑outs und Foundry‑Deals. Ohne klare Roadmap zu einer Fertigung – inklusive Prozessknoten und Volumenstrategie – bleibt die Vision theoretisch.
  • Harte Benchmarks. Entscheidend sind nicht akademische Metriken, sondern Training- und Inferenzkosten realer Modelle im Vergleich zu Nvidia‑GPUs oder bestehenden TPUs.
  • Industriepartnerschaften. Ob Hyperscaler, nationale Cloud‑Anbieter oder Supercomputing‑Zentren öffentlich mit Ricursive kooperieren, wird ein wichtiger Indikator für die Ernsthaftigkeit der Technologie sein.

Für die EDA‑Branche zeichnet sich ein Strategiewechsel ab. Anbieter wie Synopsys oder Cadence integrieren bereits Machine Learning in ihre Tools; sollten Firmen wie Ricursive Markterfolg haben, könnten wir verstärkte Übernahmen von KI‑EDA‑Startups sehen, um diese Kompetenzen im eigenen Portfolio zu halten.

Gleichzeitig wächst der sicherheitspolitische Druck. Wenn selbstoptimierende Hardware‑Stacks die Zeit zwischen Modellgenerationen verkürzen, geraten Exportkontrollen und Risikobewertungen unter Zugzwang. Staaten könnten beginnen, nicht nur bestimmte Chips, sondern auch Design‑Systeme als sensibel einzustufen.

Das wahrscheinlichste Szenario: Nur wenige der hochbewerteten Neugründungen liefern tatsächlich generalisierbare Technologien. Viele werden in Nischen enden oder von größeren Konzernen übernommen. Aber das Grundprinzip – lernbasierte Co‑Optimierung von Modellen und Hardware – wird sich als Standard etablieren, auch im europäischen High‑Performance‑Computing.

Fazit

Ricursives Bewertung von 4 Milliarden US‑Dollar ist weniger eine Aussage über den aktuellen Stand des Unternehmens als über die nächste Phase des KI‑Wettrennens. Der Kampf verlagert sich auf die tiefste Ebene des Stacks: die Werkzeuge, die die Chips entwerfen, auf denen unsere Modelle laufen. Wer diese Ebene kontrolliert, kontrolliert Tempo und Richtung des Fortschritts. Für Europa – und speziell den DACH‑Raum – stellt sich daher nicht die Frage, ob diese Entwicklung kommt, sondern ob man sie aktiv mitgestaltet oder lediglich importiert. Welche Rolle wollen wir spielen?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.