MatX gegen Nvidia: Warum ein 500-Millionen-Dollar-Chip-Startup die Machtfrage im KI-Zeitalter stellt

25. Februar 2026
5 Min. Lesezeit
Nahaufnahme eines KI‑Beschleunigerchips auf einer Leiterplatte als Symbol für MatX-Hardware

1. Überschrift und Einstieg

Die größte Bremse für KI sind nicht mehr Algorithmen, sondern Rechenressourcen. Wenn ein junges Chip-Startup ohne fertiges Produkt 500 Millionen US‑Dollar einsammelt, ist das mehr als eine weitere Finanzierungsrunde – es ist ein Signal, wer diese Engpass-Ressource künftig kontrolliert. MatX, gegründet von zwei ehemaligen Google‑TPU‑Ingenieuren, will Prozessoren bauen, die Nvidias GPUs bei großen Sprachmodellen um den Faktor zehn übertreffen. Gelingt das, verschiebt sich das Kräfteverhältnis zwischen Nvidia, Cloud‑Konzernen und KI‑Labs. In diesem Kommentar geht es nicht um die Höhe der Runde, sondern darum, was sie über die nächste Phase des KI‑Wettrennens verrät.


2. Die Nachricht in Kürze

Laut TechCrunch hat das KI‑Chip‑Startup MatX eine Series‑B‑Finanzierung in Höhe von 500 Millionen US‑Dollar abgeschlossen. Angeführt wird die Runde von Jane Street und dem Fonds Situational Awareness, den der frühere OpenAI‑Forscher Leopold Aschenbrenner gegründet hat. Weitere Investoren sind Marvell Technology, NFDG, Spark Capital sowie die Stripe‑Mitgründer Patrick und John Collison.

MatX wurde 2023 von Reiner Pope und Mike Gunter gegründet, die zuvor zentrale Rollen in der Hardware‑ und Software‑Entwicklung von Googles TPU‑Chips innehatten. Das Unternehmen entwickelt spezialisierte Prozessoren für Training und Inferenz großer Sprachmodelle und peilt dafür eine etwa zehnfache Leistungssteigerung gegenüber Nvidia‑GPUs an.

Die neue Finanzierungsrunde folgt gut ein Jahr nach einer Series A über rund 100 Millionen US‑Dollar, die MatX laut früheren Berichten von TechCrunch mit über 300 Millionen US‑Dollar bewertete. Die aktuelle Bewertung wurde nicht öffentlich gemacht. TechCrunch verweist außerdem auf den Wettbewerber Etched, der laut Bloomberg kürzlich ebenfalls 500 Millionen US‑Dollar zu einer Bewertung von 5 Milliarden einsammelte. MatX plant, seine Chips bei TSMC fertigen zu lassen und ab 2027 auszuliefern.


3. Warum das wichtig ist

MatX zielt direkt auf den Kern von Nvidias Dominanz. Eine halbe Milliarde US‑Dollar für ein Pre‑Product‑Chip‑Startup zeigt, wie sich die Wahrnehmung verschoben hat: Das knappste Gut im KI‑Ökosystem sind nicht mehr Data Scientists, sondern Teraflops.

Erstens: Investoren setzen darauf, dass die Wertschöpfung in der KI‑Kette immer stärker in Richtung Recheninfrastruktur wandert. Wenn ein früher OpenAI‑Insider einen Fonds gründet und früh einen massiven Einsatz auf einen Nvidia‑Konkurrenten wagt, dann ist das Ausdruck der Überzeugung, dass günstige, skalierbare Rechenleistung der eigentliche Hebel für »Frontier‑KI« ist – und damit auch ein strategischer Faktor für Staaten und Konzerne.

Zweitens: MatX ist Symptom eines Architekturwandels. Nvidias GPUs sind Allzweck‑Werkzeuge mit einem mächtigen Software‑Ökosystem. Große Sprachmodelle hingegen ähneln mehr einer industriellen Produktionslinie: extrem viel, aber relativ gleichförmige Matrix‑Rechenarbeit. Genau hier setzen spezialisierte Beschleuniger an, die Flexibilität gegen Effizienz tauschen. MatX sagt im Grunde: Wir brauchen keinen Schweizer Taschenmesser‑Chip, sondern eine hochoptimierte Fertigungsstraße.

Profitieren würden insbesondere große KI‑Labs, Hyperscaler, Hedgefonds und Unternehmen, deren KI‑Kosten heute von GPU‑Rechnungen dominiert werden. Selbst wenn die angepeilten »10x« sich in der Praxis nur als drei- bis vierfache Verbesserung herausstellen, würden sich viele Geschäftsmodelle verschieben: Trainingsläufe, die heute Millionen verschlingen, könnten in den Bereich des wirtschaftlich Vertretbaren rutschen.

Auf der Verliererseite steht nicht nur Nvidia. Kleinere Chip‑Startups ohne vergleichbare Ingenieurs‑Tiefe oder Kapitalbasis geraten zusätzlich unter Druck. Und für Entwickler bedeutet jeder neue Hardware‑Stack potenziell mehr Fragmentierung: weitere Toolchains, weitere Inkompatibilitäten, mehr Aufwand bei der Optimierung.


4. Das größere Bild

Die MatX‑Finanzierung reiht sich in eine Serie von Entwicklungen ein, die eines klar machen: KI‑Rechenleistung wird zum eigenen Machtfaktor – wirtschaftlich wie geopolitisch.

TechCrunch berichtete kürzlich über einen bis zu 100 Milliarden US‑Dollar schweren Chip‑Deal zwischen Meta und AMD im Rennen um sogenannte persönliche Superintelligenz. Parallel dazu treiben alle großen Cloud‑Anbieter eigene Silizium‑Strategien voran: Google mit TPU, Amazon mit Trainium/Inferentia, Microsoft mit Maia und Cobalt. Dazu kommen Spezialisten wie Etched, Groq, Cerebras, Tenstorrent oder Graphcore, die jeweils bestimmte Workloads adressieren.

Historisch erinnert das an die Entwicklung beim Bitcoin‑Mining: Erst CPUs, dann GPUs, schließlich spezialisierte ASICs. Sobald ein Rechenproblem klar verstanden ist und enorme wirtschaftliche Bedeutung hat, setzt sich Spezialisierung durch. LLM‑Workloads befinden sich mitten in diesem Übergang. MatX und Etched sind die Vorboten einer ASIC‑ähnlichen Generation für Sprachmodelle – vermutlich mit etwas mehr Flexibilität, aber klarer Optimierung auf ein enges Spektrum.

Die eigentliche Hürde ist allerdings nicht nur der Chip, sondern der Stack. Nvidias wirklicher Burggraben heißt CUDA plus Ökosystem: Bibliotheken, Tools, Framework‑Unterstützung und Millionen Entwicklerstunden. Google brauchte Jahre, bis TPUs außerhalb interner Workloads wirklich relevant wurden. Wer heute gegen Nvidia antritt, muss Hardware und Software gemeinsam denken.

Genau hier haben die MatX‑Gründer Erfahrung – sie kennen die Lektionen aus der TPU‑Entwicklung. Das ist ein Vorteil, aber auch ein Realitätscheck: Selbst ein Konzern wie Google konnte Nvidias Dominanz nur teilweise aufbrechen. Ein Startup muss deshalb extrem fokussiert vorgehen: klare Ziel‑Workloads, aggressives SDK‑Design, am besten frühe Anker‑Kunden im Cloud‑Umfeld.

Bis 2027 wird Nvidia wiederum mindestens eine, wahrscheinlich zwei weitere GPU‑Generationen liefern. Die Frage lautet daher nicht: Ist MatX schneller als heutige GPUs? Sondern: Kann eine spezialisierte Architektur die jeweils aktuelle Nvidia‑Generation beim Verhältnis Leistung zu Kosten und Leistung pro Watt signifikant schlagen?


5. Der europäische / DACH‑Blick

Aus europäischer Sicht berührt MatX mehrere wunde Punkte: digitale Souveränität, Abhängigkeit von US‑Technologie und die Frage, wie viel vom KI‑Wertschöpfungskuchen überhaupt in Europa landet.

Europäische KI‑Startups, Forschungszentren wie das Jülich Supercomputing Centre oder das Barcelona Supercomputing Center sowie Cloud‑Provider wie OVHcloud oder Hetzner waren in den letzten Jahren stark von Nvidia‑Kontingenten abhängig – häufig mit Nachteilen gegenüber US‑Hyperscalern. Mehr Konkurrenz im High‑End‑Chip‑Segment verspricht zumindest potenziell bessere Verhandlungspositionen und mittelfristig günstigere Preise.

Gleichzeitig zeigt MatX die strukturelle Abhängigkeit: Chip‑Design in den USA, Fertigung bei TSMC in Taiwan, HBM von wenigen asiatischen Anbietern – Europa bleibt beim Kernthema KI‑Rechenleistung weitgehend Kunde, nicht Produzent. Der EU‑Chips‑Act soll das langfristig ändern, aber im Segment der leistungsfähigsten KI‑Beschleuniger sind bislang kaum europäische Player sichtbar. Graphcore aus dem UK diente schon als Mahnung, wie schwer es ist, gegen Nvidia und die Cloud‑Giganten zu bestehen.

Für die DACH‑Region ist das mehr als eine akademische Frage. Branchen wie Automobil, Maschinenbau oder Chemie entwickeln zunehmend eigene KI‑Modelle, teilweise sensibel und reguliert. In Kombination mit der kommenden EU‑KI‑Verordnung (AI Act) wächst der Bedarf an europäisch gehosteten, compliant Rechenressourcen. Ob diese auf Nvidia, MatX oder anderen Chips laufen, entscheidet über Kosten, Energieeffizienz und darüber, welche Cloud‑Partner überhaupt in Frage kommen.

Deutsche und europäische Cloud‑Anbieter könnten MatX‑ähnliche Hardware zudem als Differenzierungsmerkmal nutzen: Wer heute nicht mit Nvidia‑Budgets mithalten kann, könnte morgen mit alternativen Chips punkten – vorausgesetzt, die Software‑Unterstützung ist breit genug.


6. Ausblick

Ob MatX mehr wird als eine Fußnote im KI‑Chip‑Rennen, hängt an einigen klaren Meilensteinen.

Technische Roadmap. Ein Tape‑out bei TSMC, die Integration von HBM‑Speicher, Packaging und Systemdesign – jeder dieser Schritte ist potenziell riskant. Beobachten Sie, wann MatX erste Architekturdetails und Benchmarks veröffentlicht: Prozessknoten, Speicherbandbreite, reale Trainings‑ und Inferenzwerte gegenüber den dann aktuellen Nvidia‑ und AMD‑Lösungen.

Software und Ökosystem. Der Erfolg steht und fällt mit der Frage, wie viel Reibung Entwickler spüren. Ein gutes SDK, enge Integration mit PyTorch, JAX und populären Inferenz‑Runtimes sowie Upstream‑Unterstützung in Frameworks sind entscheidend. Ein frühes Signal wären große Open‑Source‑Modelle, die offiziell MatX als unterstützte Zielplattform ausweisen.

Go‑to‑Market‑Strategie. Für ein Startup ist der direkte Vertrieb in Rechenzentren extrem zäh. Wahrscheinlicher ist eine Strategie über Cloud‑Partner und einzelne Leuchtturm‑Kunden – etwa ein großes KI‑Lab oder ein Hyperscaler, der MatX‑Instanzen anbietet. Für den europäischen Markt wäre interessant, ob deutsche oder europäische Cloud‑Anbieter (z. B. in GAIA‑X‑Kontexten) früh auf alternative Beschleuniger setzen, um sich von US‑Hyperscalern abzugrenzen.

Politik und Regulierung. Exportkontrollen der USA für Hochleistungs‑KI‑Chips beeinflussen, welche Märkte MatX adressieren kann. Umgekehrt könnten europäische Förderprogramme im Rahmen des EU‑Chips‑Act oder nationaler KI‑Strategien gezielt Piloten mit alternativer Hardware unterstützen – aus industriepolitischen Gründen.

Mit einem geplanten Auslieferungsstart 2027 ist vor 2028 kaum mit großflächigen Produktiveinsätzen zu rechnen. Die eigentliche Spannungsphase liegt in den nächsten 18–24 Monaten: Werden erste Testchips pünktlich, stabil und überzeugend? Gibt es Developer‑Kits? Wer sind die ersten Referenzkunden?


7. Fazit

Die 500 Millionen US‑Dollar für MatX sind weniger eine Wette auf ein einzelnes Startup als auf eine Strukturthese: Die Zukunft der KI wird durch verfügbare Rechenleistung begrenzt, und Nvidias Monopolstellung an dieser Engstelle ist angreifbar. Die Wahrscheinlichkeit spricht weiterhin für Nvidia – doch jeder glaubwürdige Herausforderer erhöht die Chance auf einen vielfältigeren, konkurrenzfähigeren Hardware‑Markt.

Für Unternehmen und Entscheidungsträger in Europa stellt sich damit eine praktische Frage: Planen Sie Ihre KI‑Strategie so, dass Sie alternative Chips nutzen können, wenn sie kommen – oder zementieren Sie heute Abhängigkeiten, die Sie morgen teuer zu stehen kommen könnten?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.