Überschrift und Einstieg
Die KI-Debatte der letzten Jahre kreiste fast manisch um eine Frage: Welches Modell ist am intelligentesten? Ein Gespräch, das TechCrunch mit Google-Cloud‑VP Michael Gerstenhaber geführt hat, legt nun den Finger auf einen blinden Fleck. Er beschreibt drei Fronten, an denen KI-Modelle gleichzeitig kämpfen: Intelligenz, Latenz und Kosten bei großem, schwer prognostizierbarem Volumen. Klingt abstrakt – ist aber genau der Denkrahmen, den Produktverantwortliche, Architekt:innen und Regulierer in Europa bisher vermisst haben. In dieser Analyse ordne ich Gerstenhabers Sicht ein, vergleiche sie mit der Konkurrenz und beleuchte die Konsequenzen für Unternehmen im DACH-Raum und darüber hinaus.
Die Nachricht in Kürze
Laut TechCrunch schildert Michael Gerstenhaber, Produkt-Vizepräsident bei Google Cloud und verantwortlich für die Plattform Vertex AI, ein dreidimensionales Bild des Fortschritts bei KI-Modellen. Nach Stationen bei Anthropic und nun Google sieht er drei gleichzeitige Entwicklungsachsen: rohe Intelligenz, Antwortzeit und die Fähigkeit, Modelle zu vertretbaren Kosten bei unbekannter Last zu betreiben.
Er illustriert das mit typischen Einsatzfällen. Bei komplexer Softwareentwicklung soll das Modell möglichst klug sein – selbst wenn eine Antwort Minuten dauert. Bei Interaktionen mit Endkund:innen, etwa im Support, begrenzt ein enges Latenzbudget den Einsatz besonders großer Modelle; ein perfekter, aber verspäteter Output ist praktisch wertlos. Und bei massenhaften Aufgaben wie Inhaltsmoderation auf Plattformen entscheidet vor allem der Preis pro Anfrage über die Machbarkeit.
Außerdem erklärt Gerstenhaber, warum »agentische« Systeme – KI-Agenten, die selbstständig Werkzeuge und Daten nutzen – langsamer in Produktion gehen als der Hype vermuten lässt. Es fehlen etablierte Muster für Audit, Autorisierung und sichere Einbettung in Geschäftsprozesse. Eine Ausnahme sieht er in der Softwareentwicklung, wo solche human‑in‑the‑loop‑Strukturen seit Jahren existieren.
Warum das wichtig ist: ein Realitäts-Check für KI-Strategien
Gerstenhabers Drei-Fronten-Modell wirkt zunächst banal, ist aber eine scharfe Korrektur der herrschenden Erzählung. Die Frage »Welches Modell ist das klügste?« ist für die meisten Unternehmen schlicht falsch gestellt. Die eigentliche Designfrage lautet: Wie viel Intelligenz brauche ich, bei welcher Latenz und zu welchen Kosten – und zwar pro konkretem Use Case?
Profiteure sind alle, die KI pragmatisch einsetzen wollen. Wenn Sie CIO oder Produktverantwortliche:r sind, legitimiert dieses Modell das, was viele ohnehin spüren: Der »größte« oder neueste Frontier‑Modell ist selten die wirtschaftlich oder regulatorisch beste Wahl. Eine Beschaffung, die nur Benchmarks vergleicht, blendet zentrale Variablen aus: Geduld der Nutzer:innen, Dienstgüte‑Vorgaben, Kostenvolatilität.
Cloud‑Anbieter mit einem breit gefächerten Portfolio gewinnen ebenfalls. Google kann Gemini‑Varianten klar entlang der drei Achsen positionieren: Ultra für maximalen Tiefgang, leichtere Modelle für Schnelligkeit, kleinere oder distillierte Modelle für Massenaufgaben. OpenAI (GPT‑4‑Familie) und Anthropic (Claude‑Familie) spielen dieses Spiel längst. Dass ein Google‑VP es so deutlich ausspricht, signalisiert: Die Zeit des einen Leuchtturm‑Modells ist vorbei.
Verlierer sind Startups, die einzig mit »unser Modell ist minimal besser« argumentieren, ohne einen strukturellen Vorteil bei Latenz, Kosten oder Integration zu haben. Und Unternehmen, die KI als homogenen Block im Budget führen, statt als Portfolio unterschiedlich kalibrierter Fähigkeiten entlang dieser drei Fronten.
Besonders brisant ist Gerstenhabers Hinweis auf die fehlende Infrastruktur für Agenten. Das Problem liegt weniger in der Modellgüte, sondern in Governance, Prozessen und Tools. Kurz: Wir haben einen Benchmark‑Überhang und einen Organisations‑Rückstand.
Der größere Kontext: Von der einen Super-KI zum verteilten System
Gerstenhabers Sicht fügt sich nahtlos in mehrere Entwicklungen der letzten Jahre ein.
Erstens erklärt sie den Übergang von einem »Flaggschiff‑Modell« zu ganzen Modellfamilien. OpenAI, Anthropic und Google haben ihre Angebote entlang der Achsen Qualität, Geschwindigkeit und Preis ausdifferenziert. Das ist keine reine Preisdifferenzierung, sondern eine gezielte Abdeckung verschiedenster Punkte im Raum Intelligenz–Latenz–Kosten.
Zweitens rückt sie die Diskussion um KI‑Agenten zurecht. Viele heutige Demos setzen das jeweils stärkste Modell als »Dirigenten« trivialer Aufgaben ein – mit entsprechend hoher Latenz und Cloud-Rechnung. In realen Geschäftsprozessen mischen sich jedoch tiefe Analyseschritte, kurze Dialoge und massenhafte Klassifizierungen. Eine ernsthafte Agentenplattform muss deshalb in der Lage sein, pro Schritt unterschiedliche Modelle anzusteuern und lokale Heuristiken, Caching und Vorberechnung einzusetzen. Die strategische Differenzierung wandert in die Orchestrierungsschicht.
Drittens eröffnet das Drei-Fronten‑Denken einen Markt für neue Infrastruktur‑Schichten: Protokollierung und Nachvollziehbarkeit von Agentenhandlungen, fein granulare Zugriffskontrolle auf Daten, Simulationsumgebungen für komplexe Tool‑Ketten, bevor sie in Produktion gehen. Wer 2010 Observability‑ oder DevOps‑Tools gebaut hat, erkennt das Muster wieder.
Historisch gesehen ähnelt die Lage dem Übergang von Monolithen zu Microservices. Früher wurde in GHz und CPU‑Kernen gedacht, heute in Latenzbudgets, SLOs und Kosten pro Request. Im KI‑Zeitalter löst sich der Fokus vom IQ eines einzelnen Modells und verschiebt sich hin zu Systementwurf und Betriebsdisziplin.
Die europäische und DACH-Perspektive: Regulierung trifft Architektur
Für Europa ist Gerstenhabers Analyse mehr als Technik-Talk – sie ist indirekt eine Roadmap, wo die Regulatorik besonders einschlägt.
Auf der Front Intelligenz werden hochfähige Modelle, die etwa Kreditentscheidungen, Bewerbervorauswahl oder medizinische Empfehlungen treffen, im EU‑AI‑Act voraussichtlich als Hochrisiko‑Systeme eingestuft. Damit gehen Risikomanagement, Dokumentationspflichten, Protokollierung und menschliche Aufsicht einher. Gerstenhabers Forderung nach Auditierbarkeit agentischer Systeme ist exakt das, was Brüssel juristisch verankert.
Auf der Front Latenz experimentieren Banken, Versicherer, Energieversorger und Behörden in Deutschland, Österreich und der Schweiz mit KI‑Copilots im Kundendialog. Hier begrenzen nicht nur Nutzererwartungen, sondern teils auch gesetzliche Reaktionsfristen die zulässige Antwortzeit. Eine extrem leistungsfähige, aber langsame KI im Beschwerdemanagement eines deutschen Versicherers wäre regulatorisch wie geschäftlich problematisch.
Auf der Front Kosten/Skalierung stehen europäische Plattformen, Medienhäuser und Marktplätze: Sie müssen Kommentare, Bewertungen und Inhalte gemäß Digital Services Act und nationalem Strafrecht moderieren, ohne ihr Margenmodell zu zerstören. Frontier‑Modelle auf jeden Social‑Media‑Post zu werfen, ist schlicht nicht finanzierbar. Realistisch sind mehrstufige Pipelines mit günstigen Filtern, eskaliert zu stärkeren Modellen und letztlich menschlichen Moderator:innen.
Für europäische Cloud‑Anbieter wie OVHcloud, Deutsche Telekom oder lokale Hyperscaler ergibt sich eine ambivalente Lage. Googles vertikale Integration – eigene Rechenzentren, Chips, Modelle, Agentenplattformen und Endnutzer‑Interfaces – ist schwer zu schlagen. Aber europäische Player können mit Datenhoheit, differenzierter Energie‑ und Standortstrategie sowie spezialisierten Compliance‑Layern punkten, die KI‑Workloads entlang der drei Fronten optimieren und gleichzeitig DSGVO, AI‑Act und DSA respektieren.
Im stark datenschutzsensiblen DACH‑Markt wird zudem die Frage der Autorisierung, die Gerstenhaber anspricht, zum Differenzierungsmerkmal: Wer präzise regeln kann, welche Agenten welche Daten zu welchem Zweck sehen dürfen, verschafft sich Vertrauen bei Betriebsräten, Aufsichtsräten und Aufsichtsbehörden.
Ausblick: Vom Modell-Fetisch zur Ingenieursdisziplin
Nimmt man Gerstenhabers Perspektive ernst, dann entscheidet in den nächsten Jahren weniger der nächste große IQ‑Sprung, sondern die Fähigkeit, KI‑Systeme ingenieurmäßig entlang der drei Fronten zu gestalten.
Produktteams werden wegkommen von der Frage »Welches Modell nimmt man gerade so?« hin zu klaren Policies: Für Prozess X ist die maximal akzeptable Latenz Y, das tolerierbare Fehlerrisiko Z und der Ziel‑Kostenrahmen W. Innerhalb dieser Leitplanken wird dann über Modellwahl, Caching, Vorberechnung und Eskalationspfade entschieden. Dieses Denken ist vielen aus der Welt der SLOs und Kapazitätsplanung vertraut – wird aber erst jetzt konsequent auf KI übertragen.
Wir werden außerdem eine stärkere Automatisierung der Modellwahl sehen. Hyperscaler werden »Profile« anbieten – kostenoptimiert, latenzoptimiert, qualitätsoptimiert – und im Hintergrund dynamisch zwischen mehreren Modellen routen. Das erhöht Effizienz, wirft aber Transparenz‑ und Haftungsfragen auf: Wer hat letztlich entschieden, welches System welche Entscheidung getroffen hat?
Auf Agenten‑Ebene ist zu erwarten, dass sich eine neue Tool‑Schicht etabliert: Sandbox‑Umgebungen, in denen Agenten gefahrlos getestet werden; Simulationsframeworks, formale Policy‑Sprachen und neue Rollen wie »Agent Reliability Engineer«. Europäische Unternehmen, die ohnehin strenge Change‑Management‑Prozesse und Mitbestimmung kennen, könnten hier schneller robuste Standards entwickeln als US‑Startups.
Risiken bleiben: Vendor‑Lock‑in durch tief integrierte Plattformen wie Vertex AI; Governance‑Versagen, wenn Agenten ohne ausreichende Leitplanken auf Kernsysteme losgelassen werden; und Kostenexplosionen, wenn jede triviale Aufgabe auf das jeweils leistungsstärkste Modell geschoben wird. CFOs im DACH‑Raum werden bei steigenden Cloud‑Rechnungen sehr schnell sehr konkrete Fragen stellen.
Fazit
Gerstenhabers Drei‑Fronten‑Modell ist mehr als ein hübsches Bild; es ist ein Pflichtenheft für die nächste Phase unternehmensweiter KI‑Einführung. Intelligenz, Latenz und Kosten sind keine rein technischen Kennzahlen, sondern die Stellschrauben, an denen sich Wirtschaftlichkeit, Compliance und Vertrauen entscheiden. Unternehmen, die früh lernen, entlang dieser Achsen zu planen – und gleichzeitig Auditierbarkeit und Autorisierung für Agenten ernst nehmen –, bauen nachhaltige Vorteile auf. Wer dagegen weiter nur dem »klügsten Modell« hinterherläuft, riskiert Überinvestitionen, regulatorische Konflikte und enttäuschte Nutzer:innen. Die entscheidende Frage lautet: Wo in diesem Dreieck muss Ihre nächste KI‑Anwendung tatsächlich verortet sein?



