ServiceNow, Anthropic und OpenAI: Wie die Multi‑Modell‑Strategie die Machtverhältnisse im Enterprise‑AI verschiebt

29. Januar 2026
5 Min. Lesezeit
Logos von ServiceNow und Anthropic, verbunden durch ein abstraktes grafisches Netzwerk von AI‑Workflows

ServiceNow baut den Kontrollturm für Enterprise‑AI

Innerhalb einer Woche schließt ServiceNow öffentlich zwei große AI‑Partnerschaften ab: zuerst mit OpenAI, nun mit Anthropic – und Anthropic Claude wird zum „bevorzugten“ Modell in den AI‑Workflows der Plattform. Das ist weit mehr als eine weitere Hochglanz‑Ankündigung. Es zeigt, wohin sich die Wertschöpfung im AI‑Stack verschiebt: weg vom Modell, hin zur Orchestrierung. In diesem Beitrag analysieren wir, was der Anthropic‑Deal konkret verändert, wie sich die Wettbewerbslandschaft entwickelt und was das insbesondere für Unternehmen im DACH‑Raum bedeutet.


Die Nachricht in Kürze

Laut TechCrunch hat ServiceNow einen mehrjährigen Vertrag mit dem AI‑Forschungslabor Anthropic geschlossen – nur eine Woche nach der Ankündigung einer separaten Kooperation mit OpenAI. Im Rahmen der neuen Vereinbarung wird die Modellfamilie Claude zum bevorzugten AI‑Modell innerhalb der AI‑gestützten Workflow‑Produkte von ServiceNow.

Claude ist künftig das Standardmodell hinter ServiceNow Build Agent, einem Tool, mit dem Entwickler agentische Workflows und Anwendungen erstellen können. Darüber hinaus werden Anthropic‑Modelle konzernweit für rund 29.000 ServiceNow‑Mitarbeitende ausgerollt; die Entwickler erhalten Zugriff auf Claude Code.

ServiceNow äußerte sich weder zu Laufzeit noch zum finanziellen Volumen der Partnerschaft. Präsident und COO Amit Zavery betonte gegenüber TechCrunch, dass ServiceNow bewusst auf eine Multi‑Modell‑Strategie setzt: Kundinnen und Kunden sollen unterschiedliche Modelle für unterschiedliche Aufgaben nutzen können – orchestriert über eine einheitliche AI‑Plattform mit konsistentem Governance‑, Sicherheits‑ und Audit‑Rahmen.

Anthropic wiederum erweitert mit ServiceNow sein wachsendes Portfolio großer Enterprise‑Kunden, das bereits Allianz, Accenture, IBM, Deloitte und Snowflake umfasst.


Warum das wichtig ist: Die Macht wandert in die Orchestrierungsschicht

Dieser Deal ist weniger eine Frage „Anthropic vs. OpenAI“ als eine Machtverschiebung in der AI‑Wertschöpfungskette.

ServiceNow positioniert sich als Orchestrierungsschicht für Enterprise‑AI: Unternehmen kaufen nicht mehr ein einzelnes Modell, sondern Ergebnisse – automatisch gelöste Tickets, genehmigte Anträge, generierte Wissensartikel, agentische Prozesse über IT, HR und Finance hinweg.

Wer profitiert?

  • ServiceNow schärft sein Profil als AI‑native Plattform statt als „Ticket‑Datenbank mit Chat‑Addon“. Wer AI über ServiceNow konsumiert, baut um diese Plattform herum Prozesse und Daten – und wechselt seltener.
  • Anthropic erhält einen tiefen, schwer austauschbaren Zugang zu Kernprozessen großer Unternehmen. Das ist deutlich robuster als ein loses API‑Angebot in einem überfüllten LLM‑Markt.
  • Enterprise‑Kunden bekommen endlich das, was viele CIOs verlangen: Modellvielfalt ohne Integrations‑Albtraum. Kaum jemand möchte drei LLM‑Anbieter selbst in Dutzende Workflows einbauen und anschließend Governance, Logging und Kostenkontrolle manuell nachziehen.

Wer verliert?

  • Spezialisierte AI‑Startups, die im Kern nur eine dünne UI‑Schicht über einem einzelnen LLM liefern, geraten unter Druck. ServiceNow sitzt näher an Systemen der Aufzeichnung (ITSM, HR, Finance) und kann gleich mehrere Spitzenmodelle einbinden.
  • Modellanbieter ohne starken Enterprise‑Vertrieb laufen Gefahr, zu austauschbaren Komponenten zu werden, wenn sie nicht über Plattformen wie ServiceNow, Microsoft oder SAP erreichbar sind.

Kurzfristig bedeutet das: Nicht das Modell, sondern die Plattform, die Modelle orchestriert, wird zum zentralen Machtfaktor im Enterprise‑AI. ServiceNow beansprucht genau diese Rolle.


Der größere Kontext: Von Modellkriegen zu Workflow‑Kriegen

Der Anthropic‑Deal fügt sich in einen breiten Branchentrend ein: Die Modellkriege gehen in einen Workflow‑Wettbewerb über.

In den letzten zwei Jahren haben wir gesehen:

  • Hyperscaler wie Microsoft Azure, Google Cloud und AWS bieten Modellmarktplätze mit mehreren kommerziellen und Open‑Source‑LLMs.
  • Datenplattformen (Databricks, Snowflake) integrieren diverse Modelle, oft inkl. Open‑Source‑Varianten.
  • SaaS‑Schwergewichte wie Salesforce, HubSpot oder Microsoft 365 positionieren sich mit Multi‑Modell‑Ansätzen (Einstein, Copilot etc.), um Kunden Flexibilität zu versprechen.

ServiceNow überträgt dieses Muster auf Prozess‑ und Workflow‑Automatisierung. Die Botschaft: Kein einzelnes Modell dominiert alle Use Cases, und große Unternehmen wollen sich nicht an die Roadmap eines einzigen Forschungs‑Labs ketten.

Aus historischer Sicht wiederholt sich ein Muster: In der frühen Cloud‑Ära konkurrierten Anbieter über Nischen‑Features. Mit der Zeit verlagerte sich der Wettbewerb auf Plattform‑Eigenschaften – Sicherheit, Compliance, Integrationen, Governance. Heute geschieht bei AI ähnliches: Die Spitzenmodelle nähern sich in der Leistungsfähigkeit an, Differenzierung entsteht zunehmend dadurch, wie tief und sicher sie in Geschäftsprozesse eingebettet sind.

Im Wettbewerbsvergleich:

  • Microsoft nutzt die enge Verbindung zu OpenAI und eigene Modelle, tief integriert in M365, GitHub und Dynamics.
  • Salesforce verfolgt einen „bring your own model“-Ansatz innerhalb von Einstein, ergänzt um eigene und Partner‑Modelle.
  • SAP integriert AI in ERP‑ und Branchenlösungen, mit starkem Fokus auf regulierte Industrien.

ServiceNow setzt den Schwerpunkt auf Agenten und Workflows als primäre Abstraktion. Anwender definieren ein gewünschtes Ergebnis, die Plattform entscheidet im Hintergrund, welches Modell dafür zuständig ist. Gelingt dieser Ansatz, wird in vielen Fällen die Plattformmarke (ServiceNow) wichtiger als das konkrete Modell‑Label.


Der europäische und DACH‑spezifische Blick

Im europäischen Kontext hat dieses Modell einen besonderen Beigeschmack – aufgrund von Regulierung und Datenschutzkultur.

Mit dem EU AI Act werden zahlreiche AI‑Systeme, die in HR, Finanzwesen, kritischer Infrastruktur oder öffentlicher Verwaltung eingesetzt werden, als Hochrisiko‑Systeme klassifiziert. Das bringt strenge Pflichten bei Risikomanagement, Transparenz, Datenqualität und menschlicher Aufsicht. Eine Plattform wie ServiceNow, die bereits heute Audit‑Trails, Rollen‑ und Rechtekonzepte sowie Prozessdokumentation abbildet, kann für Unternehmen im DACH‑Raum zu einem praktischen Werkzeug werden, um diese Pflichten umzusetzen.

Zugleich stellen sich vertraute Fragen:

  • Datenstandorte und Cloud‑Souveränität: Wo laufen Anthropic‑ und OpenAI‑Modelle tatsächlich, wie werden Logs gespeichert, und lassen sich EU‑Standorte konsistent durchsetzen? Für deutsche Datenschutzbeauftragte ist das keine Nebensache.
  • Nachvollziehbarkeit im Multi‑Modell‑Betrieb: Für Hochrisiko‑Use‑Cases verlangt der AI Act, dass Unternehmen erklären können, wie eine Entscheidung zustande kam. Eine Blackbox‑Orchestrierung wird regulatorisch schwierig.
  • Europäische Alternativen: Anbieter wie Aleph Alpha, Mistral AI oder regionale Cloud‑Plattformen versuchen, sich als souveränere Option zu profilieren – teils mit On‑Premise‑Varianten, die gerade im öffentlichen Sektor in Deutschland und Österreich gut ankommen.

Für viele DACH‑Unternehmen – ob Großkonzern in München oder Mittelständler in Baden‑Württemberg – ist ServiceNow heute bereits tief im IT‑ und HR‑Stack verankert. AI‑Funktionen „zum Einschalten“ sind attraktiv, insbesondere bei Fachkräftemangel im Bereich Data Science. Gleichzeitig wächst das Risiko, dass kritische Prozesse noch stärker an US‑SaaS‑Ökosysteme gekoppelt werden, während EU‑Programme eigentlich die Stärkung europäischer AI‑Infrastruktur fördern wollen.


Ausblick: Worauf Unternehmen jetzt achten sollten

In den kommenden 12–24 Monaten werden einige Punkte entscheidend sein:

  1. Messbare Effekte statt Demos. ServiceNow nutzt Claude intern für 29.000 Mitarbeitende. Wenn das Unternehmen glaubhaft zeigen kann, dass Ticket‑Durchlaufzeiten, Entwicklungszyklen oder Backoffice‑Aufwand signifikant sinken, wird es diese Zahlen im Vertrieb offensiv einsetzen – auch gegenüber Kunden im DACH‑Raum.

  2. Transparenz beim Modell‑Routing. In einer Multi‑Modell‑Plattform wollen CIOs wissen: Welches Modell wurde wann verwendet, mit welchen Kosten und Fehlerquoten? Erwartbar sind Dashboards für Modellwahl, Kostensteuerung und Qualitäts‑KPIs – andernfalls droht Ablehnung durch Compliance‑Abteilungen.

  3. Lock‑in‑Risiken. Multi‑Modell‑Rhetorik suggeriert Freiheit. In der Praxis werden Workflows, Policies und Trainingsdaten immer enger mit der Plattform verflochten. Unternehmen sollten vertraglich prüfen, wie exportierbar Konfigurationen und Daten sind und ob ein späterer Plattformwechsel realistisch bleibt.

  4. Aufsicht über AI‑Plattformen. Regulierer werden sich nicht dauerhaft auf abstrakte Foundation‑Modelle konzentrieren, sondern auf konkrete Plattformen, über die Entscheidungen automatisiert werden. ServiceNow könnte – ähnlich wie große Cloud‑Provider – zunehmend selbst in den Fokus von Aufsichtsbehörden geraten.

  5. Positionierung von Anthropic. Durch tiefe Integrationen könnte sich Anthropic als bevorzugter Anbieter für „vorsichtige“ Enterprise‑Kunden etablieren – mit Schwerpunkt auf Sicherheit, Robustheit und Governance. Ob das zu nachhaltigen Umsätzen führt, hängt davon ab, wie viele ServiceNow‑ähnliche Verträge folgen.

Im Idealfall wird Multi‑Modell‑Orchestrierung AI‑Einführungen vorhersehbarer, kontrollierbarer – und endlich auch betriebswirtschaftlich greifbar machen.


Fazit

Der Anthropic‑Deal – unmittelbar nach der OpenAI‑Partnerschaft – zeigt: ServiceNow will den Control‑Plane für Enterprise‑AI besetzen, nicht den Modell‑Thron. Für Unternehmen im DACH‑Raum kann das attraktiv sein, weil es AI‑Funktionalität in eine vertraute Governance‑ und Prozessumgebung einbettet. Gleichzeitig entstehen neue Abhängigkeiten von wenigen globalen Plattformen. Die entscheidende Frage für CIOs lautet daher: Wie viel Ihrer AI‑Strategie sind Sie bereit, in die Hände eines Orchestrators wie ServiceNow zu legen – und zu welchen vertraglichen Bedingungen?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.