Anthropics Agenten-Marktplatz: Wie KI-Verhandler eine neue Klassengesellschaft im Netz schaffen könnten
Was Anthropic intern getestet hat, klingt zunächst harmlos: 69 Mitarbeitende, 100-Dollar-Gutscheine und ein kleines Kleinanzeigenportal. Tatsächlich liefert Project Deal aber einen frühen Blick auf eine mögliche Zukunft, in der KI-Agenten eigenständig miteinander verhandeln und reales Geld bewegen – im Namen von ganz normalen Nutzerinnen und Nutzern.
Im Folgenden ordne ich ein, was Anthropic genau ausprobiert hat, warum "Agentenqualität" zur nächsten unsichtbaren Ungleichheit im Digitalen werden könnte, wie das Experiment in aktuelle Branchentrends passt und was das speziell für Europa und die DACH-Region bedeutet.
Die Nachricht in Kürze
Laut TechCrunch hat Anthropic mit Project Deal einen internen Marktplatz aufgebaut, auf dem KI-Agenten sowohl Käufer als auch Verkäufer repräsentierten. Im Hintergrund standen reale Mitarbeitende, die ihre Gegenstände anboten. Jede der 69 teilnehmenden Personen erhielt ein Budget von 100 US-Dollar (als Gutscheine), um Dinge von Kolleginnen und Kollegen zu kaufen.
Anthropic betrieb vier verschiedene Marktplätze. In einem „echten“ Szenario wurden alle Teilnehmenden von der jeweils stärksten verfügbaren Modellversion vertreten; die dort ausgehandelten Geschäfte wurden anschließend tatsächlich abgewickelt. Die drei weiteren Varianten dienten reinen Studienzwecken und unterschieden sich u. a. in der verwendeten Modellqualität.
Insgesamt schlossen die Agenten 186 Deals mit einem Gesamtwert von über 4.000 US-Dollar ab. Laut Anthropic erzielten Nutzerinnen und Nutzer mit leistungsfähigeren Modellen signifikant bessere Ergebnisse, bemerkten diese Unterschiede jedoch kaum. Außerdem hatten die anfänglichen Instruktionen an die Agenten – etwa wie hart sie verhandeln sollen – nur geringen Einfluss auf Verkaufswahrscheinlichkeit und Preisniveau.
Warum das wichtig ist
Project Deal ist kein weiterer Chatbot-Test, sondern die Simulation einer Mikroökonomie algorithmischer Akteure. Hier geht es nicht mehr nur um Texte, sondern um Verträge, Preise und strategisches Verhalten. Für den digitalen Alltag ist das ein Gamechanger.
Die offensichtlichste Erkenntnis: Bessere Modelle handeln bessere Konditionen aus. Übertragen auf große Plattformen würde das bedeuten: Wer sich einen leistungsstarken (vermutlich kostenpflichtigen) Agenten leisten kann, bekommt systematisch bessere Preise, Tarifbedingungen oder Paketangebote als Nutzerinnen und Nutzer mit schwächeren, kostenlosen Agenten. Es entsteht eine neue digitale Klassengesellschaft, definiert nicht nur durch Zugang zum Netz, sondern durch die Qualität des eigenen KI-Vertreters.
Problematisch ist insbesondere, dass die Betroffenen diese Unterschiede meist nicht wahrnehmen. Wenn sich zwei Agenten auf einen Preis einigen, fühlt sich das für beide Seiten erst einmal plausibel an – auch dann, wenn eine Seite strukturell benachteiligt ist. Klassische Verbraucherschutzmechanismen – Beschwerde, Vergleich, öffentlicher Druck – funktionieren aber nur, wenn Menschen merken, dass sie schlechter gestellt sind. In einer Agentenökonomie ist die Benachteiligung oft unsichtbar, langsam kumulierend und schwer nachweisbar.
Auch Händler und Plattformen werden betroffen sein. Wenn Käuferagenten immer aggressiver verhandeln, werden Marktplätze mit dynamischen Preisen und eigenen Verkäuferagenten reagieren. Das Ergebnis ist ein Agent-gegen-Agent-Wettrüsten, wie wir es aus dem programmatischen Werbehandel oder dem Hochfrequenzhandel kennen.
Die Beobachtung, dass die anfänglichen Anweisungen an die Agenten wenig bewirken, zeigt zudem: Modellarchitektur und Training schlagen Prompting, sobald reale ökonomische Interessen auf dem Spiel stehen. Damit verschiebt sich Macht weiter in Richtung der großen Modellanbieter – zulasten kleinerer Akteure, die hoffen, mit gutem Prompt-Design mithalten zu können.
Der größere Kontext
Anthropics Experiment fügt sich ein in den weltweiten Trend zu autonomen oder halbautonomen KI-Agenten:
- OpenAI, Google und Microsoft integrieren zunehmend Agenten, die im Web recherchieren, Tools ansteuern und in Office-Suiten eigenständig Aktionen ausführen.
- Startups entwickeln „AI Employees“ für Vertrieb, Einkauf, Support oder Recruiting.
- Im Hintergrund arbeiten Werbeplattformen und Handelsalgorithmen seit Jahren nach dem Prinzip „Algorithmus verhandelt mit Algorithmus“.
Project Deal ist im Kern die Endverbrauchervariante dieser Logik. Wir kennen sie aus dem Online-Werbemarkt und von den Finanzmärkten – beides stark regulierte, professionelle Umfelder. Neu ist, dass dieses Muster nun ganz normale Kaufentscheidungen erreichen könnte: vom Stromtarif über Mobilfunkverträge bis hin zu Kleinanzeigen.
Historisch führen algorithmische Preisbildung und automatisierte Verhandlungen immer wieder zu Vorwürfen der stillen Kartellbildung oder Diskriminierung. EU- und US-Behörden haben bereits Fälle untersucht, in denen Preisalgorithmen offenbar gelernt haben, Wettbewerb zu dämpfen, ohne dass es eine ausdrückliche Absprache zwischen Unternehmen gab.
Wenn künftig komplette Verhandlungs-Stacks von Agenten übernommen werden – inkl. Suche, Preisfindung, Abschluss und Reklamation – verschwimmt die Grenze zwischen Plattformregeln und Agentenverhalten. Überzahlen Sie, weil der Marktplatz unfair ist, oder weil Ihr Agent schlechter trainiert ist? Diskriminiert der Händler Sie, oder optimiert sein Agent auf Basis voreingenommener Daten?
Im Vergleich zu manchen Wettbewerbern benennt Anthropic relativ offen das Risiko von „Agentenqualitätslücken“. Das ist ein anderer Ton als das übliche Silicon-Valley-Narrativ "KI für alle". Implizit steht dahinter die Erkenntnis, dass Agenten ohne Leitplanken bestehende Macht- und Wohlstandsgefälle weiter verstärken können – gerade auch international.
Die europäische und DACH-Perspektive
Für Europa ist Project Deal ein ideales Anschauungsbeispiel für die Umsetzung des EU AI Act und bestehender Regeln wie DSA, DMA und GDPR.
Aus verbraucherrechtlicher Sicht stellt sich die Frage: Darf ein Marktplatz tatenlos zusehen, wenn strukturell schwächere Agenten systematisch schlechtere Konditionen erzielen? Die EU-Richtlinie über unlautere Geschäftspraktiken verbietet die Ausnutzung erheblicher Informationsasymmetrien. Man kann argumentieren, dass ein Plattformbetreiber, der Qualitätsunterschiede von Agenten kennt und nicht kompensiert, genau das riskiert.
Unter Datenschutzgesichtspunkten (GDPR) werden Einkaufsagenten zwangsläufig zu mächtigen Profiling-Werkzeugen: Sie brauchen Zugang zu Kaufhistorie, Zahlungsdaten, Präferenzen und Kontextsignalen. Für europäische Aufsichtsbehörden – allen voran in Deutschland und Frankreich – wird entscheidend sein, wie Zweckbindung, Datenminimierung und Transparenz bei solchen Agenten sichergestellt werden.
Aus Wettbewerbssicht und im Lichte des DMA stellt sich die Frage, ob wenige große KI-Anbieter über ihre Agenten nicht faktisch neue Gatekeeper-Rollen einnehmen. Wenn nur Kundinnen und Kunden eines bestimmten Cloud-Ökosystems die stärksten Verhandlungsagenten nutzen können, wirkt sich das direkt auf Märkte wie Mobilfunk, Energie oder Versicherungen aus – Bereiche, in denen in der DACH-Region ohnehin schon hoher Regulierungsdruck herrscht.
Für die Tech-Szene in Berlin, München, Wien oder Zürich ergibt sich aber auch eine Chance: europäische Agentenlösungen, die auf Fairness, Datenschutz und Nutzerkontrolle optimiert sind. Gerade im deutschsprachigen Raum mit seiner hohen Sensibilität für Privatsphäre und Verbraucherrechte könnte das ein echter Wettbewerbsvorteil sein.
Ausblick
Wahrscheinlich ist, dass agentenbasierter Handel schrittweise und relativ geräuschlos in bestehende Plattformen einzieht – zunächst über smarte Einkaufsassistenten und Tarifoptimierer, später über voll delegierte Agenten, die eigenständig Angebote vergleichen, Kündigungen verschicken oder Abos umstellen.
Worauf sollten wir achten?
- Ankündigungen großer Plattformen (Amazon, Zalando, OTTO, Booking, Vergleichsportale), die Agenten-APIs oder „KI-Verhandler“ einführen.
- Kopplung an Bezahlsysteme: Sobald Agenten Geld direkt über SEPA, Karten oder Open-Banking-Schnittstellen bewegen können, steigt das systemische Risiko deutlich.
- Standardisierungs- und Normungsinitiativen in EU-Gremien und bei Organisationen wie ISO oder ETSI, die sich mit Protokollen für Agent-zu-Agent-Kommunikation und Auditierbarkeit beschäftigen.
Offen bleiben zentrale Haftungsfragen: Wer ist verantwortlich, wenn ein Agent einen ruinösen Vertrag abschließt oder wichtige Klauseln übersieht – die Nutzerin, der Plattformbetreiber, oder der Modellanbieter? Müssen Plattformen offenlegen, wie leistungsfähig der eigene Agent im Vergleich zum Marktdurchschnitt ist? Und wird der Gesetzgeber möglicherweise eine Art „Grundversorgungs-Agenten“ verlangen – ähnlich wie heute bei Internet- und Telefonanschlüssen?
Eine unangenehme, aber realistische Option ist, dass Plattformen feststellen: Ein gewisses Maß an Agenten-Ungleichheit ist betriebswirtschaftlich attraktiv. Premium-Agenten für Unternehmen und Besserverdienende, Standard-Agenten für die Masse – die dadurch unbewusst für bessere Margen sorgt. Ohne politischen und zivilgesellschaftlichen Druck ist dieses Szenario keineswegs ausgeschlossen.
Fazit
Anthropics Project Deal ist weniger ein kurioses Inhouse-Experiment als ein Frühwarnsignal für eine agentenvermittelte Ökonomie. Es zeigt, dass leistungsfähigere Modelle systematisch bessere Deals aushandeln – und dass Menschen oft nicht merken, wenn sie dauerhaft auf der Verliererseite stehen. Wenn wir diese Dynamik unreguliert skalieren lassen, riskieren wir eine neue, unsichtbare Klassengesellschaft im Netz. Die entscheidende Frage lautet: Wer kontrolliert künftig den stärksten Verhandlungsagenten – und nach welchen Regeln?



