Wenn die Cloud-Gutschriften weg sind: Warum Startups jetzt ein „Check-Engine“-Licht für ihre AI-Infrastruktur brauchen

19. Februar 2026
5 Min. Lesezeit
Gründer betrachtet auf einem Monitor ein Dashboard mit Cloud-Kosten und Warnsymbol

In vielen DACH‑Startups können Gründer:innen detailliert über Runway, Hiring-Pläne und MRR sprechen – aber kaum jemand kann sauber beziffern, was ein zusätzlicher Kunde in der Cloud wirklich kostet, sobald die Credits aufgebraucht sind.

Das Gespräch im TechCrunch‑Podcast Equity mit Darren Mowry, Vice President Global Startups bei Google Cloud, ist ein freundlicher Hinweis, dass bei vielen AI‑First‑Firmen die „Check-Engine“-Leuchte längst blinkt. Es geht dabei weniger um Googles Marketing, sondern um ein strukturelles Problem im aktuellen Startup‑Modell. In diesem Beitrag ordnen wir die Aussagen ein, analysieren die Folgen für Gründer:innen und beleuchten, was das speziell für den europäischen und deutschsprachigen Markt bedeutet.

Die Nachricht in Kürze

Laut dem TechCrunch‑Podcast Equity sprach Moderatorin Rebecca Bellan in einer rund 30‑minütigen Episode, die Mitte Februar 2026 veröffentlicht wurde, mit Darren Mowry, dem für globale Startups zuständigen Vice President von Google Cloud.

Im Mittelpunkt steht der Spagat junger Unternehmen: Sie sollen schneller denn je Produkte mit AI auf den Markt bringen, erleben gleichzeitig aber ein schwierigeres Fundraising‑Umfeld, steigende Infrastrukturkosten und stärkeren Druck von Investor:innen, sehr früh echte Traktion und belastbare Kennzahlen zu liefern. TechCrunch betont, dass Cloud‑Gutschriften, Zugang zu GPUs und fertige Foundation Models den Einstieg massiv erleichtert haben – dass frühe Architektur‑Entscheidungen jedoch teuer werden können, sobald die Gratisphase endet und „echte“ Rechnungen ins Haus flattern.

Mowry beschreibt, welche Muster Google Cloud im Startup‑Ökosystem beobachtet, wie der Konzern um AI‑Startups wirbt und welche Überlegungen Gründer:innen beim Weg vom Prototypen in den produktiven Betrieb anstellen sollten.

Warum das wichtig ist

Die Diskussion legt ein Kernparadox der 2020er‑Startupwelt offen: Von Gründer:innen wird erwartet, mit AI in Höchstgeschwindigkeit zu liefern – ihr langfristiges Überleben hängt aber davon ab, wie effizient sie ihre Infrastruktur betreiben. Diese beiden Ziele sind nicht automatisch deckungsgleich.

Profiteure sind die Hyperscaler. Google Cloud – wie auch AWS und Azure – nutzt Credits, GPU‑Kontingente und Startup‑Programme als akribisch kalkulierte Customer‑Acquisition‑Kosten. Sobald ein junges Unternehmen eng auf proprietäre Dienste wie Managed Databases, ML‑Plattformen, Vektordatenbanken und Observability‑Stacks setzt, entsteht eine starke technische und organisatorische Pfadabhängigkeit. Credits sind damit weniger Wohltat als rabattierter Eintritt in ein Ökosystem, aus dem man nur schwer wieder herauskommt.

Verlierer sind Gründer:innen, die temporäre Subvention mit nachhaltiger Unit Economics verwechseln. Viele AI‑Startups glänzen mit Wachstumsraten, verschweigen aber brutto Margen, die bei einer Series‑B‑Due‑Diligence rote Karten provozieren würden. Wenn irgendwann das „Check-Engine“-Licht angeht – oft rund um die Series A oder nach kritischen Vorstandssitzungen –, zeigt sich nicht selten, dass jeder zusätzliche Kunde Wert vernichtet, sobald Cloud‑Kosten korrekt zugeordnet werden.

Die unmittelbare Folge: Infrastrukturarchitektur ist keine rein technische Domäne mehr, sondern Strategiefrage auf C‑Level. CTO, CFO und CEO müssen ein gemeinsames Vokabular für FinOps, Datenlokation, Modellhosting und Vertragsgestaltung entwickeln. Dass eine Google‑Cloud‑Führungskraft mit diesem Thema in einem breiten Startup‑Podcast auftritt, ist ein Indiz: Cloud‑Strategie gehört heute zur Grundbildung von Gründer:innen – ebenso wie Produkt‑Market‑Fit oder Sales.

Der größere Kontext

Die Themen aus der Equity‑Episode fügen sich in mehrere übergeordnete Entwicklungen ein.

1. Der AI‑Infrastruktur‑Kater. Nach zwei Jahren AI‑Euphorie – „LLM überall, Kosten später“ – folgt der Realitätscheck. Viele generative‑AI‑Startups geben 60–80 % ihres Umsatzes für Cloud aus, insbesondere wenn sie proprietäre Modelle als API konsumieren. Mehrere prominente AI‑Firmen haben öffentlich eingeräumt, dass Infrastrukturkosten ihre wichtigste Hürde auf dem Weg zur Profitabilität und zu wettbewerbsfähigen Preisen sind.

2. FinOps und (Teil‑)Rückverlagerung. Mit dem Ende von „Growth at all costs“ wird „Efficient Growth“ zur neuen Maxime. FinOps‑Teams, Nutzungs‑Transparenz, Re‑Design von Architekturen und teilweise auch die Rückverlagerung bestimmter Workloads aus der Public Cloud in eigene oder spezialisierte Infrastrukturen erleben ein Comeback. Für Frühphasen‑Startups ist vollständige Repatriierung zwar selten sinnvoll, aber das Prinzip der „minimal notwendigen Cloud“ gewinnt an Boden: Managed Services dort, wo sie echten Vorsprung bringen, Standard‑Workloads möglichst günstig und portierbar.

3. Plattformkampf im AI‑Stack. Googles Offensive, Startups mit Credits, GPUs und AI‑Plattformen zu locken, spiegelt ähnliche Initiativen von AWS und Azure. Der eigentliche Wettbewerb findet nicht mehr auf der Ebene von nackten VMs statt, sondern bei der Entwicklungserfahrung: Managed Vektordatenbanken, Training‑Pipelines, Evaluierungs‑ und Sicherheits‑Tools, spezialisierte Hardware (TPUs) und Fine‑Tuning‑Umgebungen. Wer hier zur Standardplattform für AI‑Teams wird, sichert sich jahrelange, margenstarke Auslastung.

Historisch ist das nicht neu. In den frühen 2010ern hat AWS mit Credits eine SaaS‑Generation groß gemacht – gefolgt von teuren Optimierungsprojekten, als die Rechnungen explodierten. Neu ist heute, dass AI‑Workloads unberechenbarer, datenintensiver und stärker reguliert sind. Falsche Weichenstellungen zu Beginn lassen sich deshalb schwerer korrigieren.

Die europäische / DACH‑Perspektive

Für europäische und speziell DACH‑Startups ist die „Check-Engine“-Metapher besonders relevant.

Erstens sind Finanzierungsrunden in Europa im Schnitt kleiner als im Silicon Valley. Die Fehlertoleranz für ineffiziente Infrastruktur ist daher geringer. Ein paar Hunderttausend Euro unnötiger GPU‑ oder API‑Kosten können einem Berliner oder Münchner AI‑Startup schnell mehrere Monate Runway kosten.

Zweitens ist Regulierung kein Randthema, sondern Geschäftsrisiko. Die DSGVO bestimmt bereits, wie Daten erhoben, gespeichert und verarbeitet werden dürfen. Der EU AI Act wird zusätzliche Anforderungen an Dokumentation, Governance und teilweise an die Lokalisierung von Modellen und Trainingsdaten stellen – insbesondere bei „Hochrisiko‑Systemen“. Damit reicht es nicht, den günstigsten oder schnellsten GPU‑Standort zu wählen; Datenresidenz, Auditierbarkeit und Lieferketten‑Transparenz werden Auswahlkriterien für Cloud‑Provider.

Drittens existieren in Europa echte Alternativen zu US‑Hyperscalern: OVHcloud, Scaleway, Hetzner, plus Angebote wie Open Telekom Cloud oder schweizerische Provider positionieren sich mit klareren Preisen und einem Fokus auf Datensouveränität. Sie können das AI‑Portfolio von Google Cloud oft nicht voll ersetzen, aber sehr wohl Teile der Workloads kostengünstig und DSGVO‑konform abdecken – ein spannender Hebel für Startups aus der DACH‑Region.

Hinzu kommt die kulturelle Dimension. In Deutschland, Österreich und der Schweiz sind Datenschutz‑Sensibilität und Skepsis gegenüber marktbeherrschenden Plattformen ausgeprägter als in den USA. Ein AI‑Produkt „100 % auf US‑Cloud betrieben“ kann in Konzern‑Beschaffungen oder im öffentlichen Sektor zu Rückfragen führen. Wer früh über Multi‑Cloud‑Strategien, europäische Rechenzentren und saubere Datenfluss‑Diagramme nachdenkt, verschafft sich daher nicht nur regulatorische, sondern auch kommerzielle Vorteile.

Blick nach vorn

Cloud‑Strategie wird in den kommenden Jahren einen deutlich prominenteren Platz in Pitch‑Decks und Board‑Meetings einnehmen.

In den nächsten 12–24 Monaten sind insbesondere drei Entwicklungen wahrscheinlich:

  1. Frühes FinOps als Standard. Statt erst zur Series B beginnen viele Seed‑ und Series‑A‑Startups bereits jetzt damit, Cloud‑Kosten pro Feature und pro Kunde zu monitoren. Kennzahlen wie „AI Cost of Goods Sold“ oder GPU‑Auslastung rücken in die Nähe klassischer Metriken wie MRR oder Churn.

  2. Transparentere Startup‑Angebote der Hyperscaler. Mit zunehmenden Negativbeispielen werden Google Cloud, AWS & Co. gezwungen sein, Startup‑Programme klarer zu strukturieren: Welche Verpflichtungen stehen Credits entgegen? Wie hoch sind Egress‑Kosten realistisch? Welche Lock‑In‑Risiken gibt es? In Marketing‑Folien wird das Schlagwort „Portabilität“ häufiger auftauchen – ob die technische Umsetzung Schritt hält, ist eine andere Frage.

  3. Die infrastruktur‑kompetente Gründerin. Erfolgreiche AI‑Gründer:innen der nächsten Welle werden nicht nur Product und Modelle verstehen, sondern auch grundlegende Infrastruktur‑Ökonomie: GPU‑Nutzung, Datenpipelines, Sicherheitsanforderungen und Vertragsdetails. Sie werden klar unterscheiden, wo Vendor‑Lock‑In vertretbar ist – und wo es existenzielle Risiken birgt.

Risiken bleiben: Manche Teams überoptimieren auf Kosten und vernachlässigen Zuverlässigkeit oder Sicherheit. Andere bauen überkomplexe Multi‑Cloud‑Setups, die ihren tatsächlichen Anforderungen weit voraus sind. Und die europäische Wettbewerbspolitik könnte Hyperscalern zusätzliche Regeln auferlegen, was langfristige Planung erschwert.

Das größte Risiko jedoch ist das Wegschauen: die blinkende Kontrollleuchte zu ignorieren mit dem Mantra „Wir kümmern uns darum nach der nächsten Runde“. In einem Markt, in dem Runden länger auf sich warten lassen und Due‑Diligence‑Prüfungen härter werden, kann diese Wette leicht schiefgehen.

Fazit

Googles verstärktes Werben um Startups, sichtbar im Equity‑Interview, ist weniger ein Akt der Großzügigkeit als ein Indikator, dass der Cloud‑Wettbewerb endgültig im AI‑Zeitalter angekommen ist. Gründer:innen, die Credits als „geschenktes Geld“ statt als zeitlich begrenzte Subvention sehen, laufen in eine Kostenwand, sobald die Rechnungen real werden. Die entscheidende Frage lautet nicht „AWS, Azure oder Google Cloud?“, sondern: Wie bewusst und kontrolliert gestalten Sie Ihre Abhängigkeit von jedem Anbieter? Wann haben Sie zuletzt ein echtes „Check-Engine“-Diagnosis Ihrer Infrastruktur‑Ökonomie gemacht?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.