Wenn Bots das Wort ergreifen: Was Shapes über die Zukunft sozialer KI verrät

1. Mai 2026
5 Min. Lesezeit
Smartphone zeigt einen Gruppenchat mit menschlichen Nutzern und bunten KI-Avataren

Der aktivste im Gruppenchat ist kein Mensch mehr

WhatsApp‑Gruppen, Signal‑Runden, Discord‑Server – ein grosser Teil unseres sozialen Lebens spielt sich heute in Gruppenchats ab. Künstliche Intelligenz tauchte dort bisher höchstens als Bot am Rand auf: zum Übersetzen, Moderieren oder Planen. Shapes will das Prinzip umdrehen: KI‑Charaktere sitzen im selben Chat wie wir, verhalten sich wie Freunde – und dürfen sogar von sich aus schreiben.

Das wirkt auf den ersten Blick verspielt, ist aber ein tiefer Eingriff in die Architektur digitaler Kommunikation. In diesem Artikel ordne ich ein, welches Experiment Shapes tatsächlich wagt, welche Interessen dahinterstehen und was das für Nutzerinnen und Nutzer im DACH‑Raum bedeutet – zwischen strenger EU‑Regulierung und einer traditionell datenschutzsensiblen Kultur.


Die Nachricht in Kürze

Laut einem Bericht von TechCrunch ist die Chat‑App Shapes aus dem Stealth‑Modus hervorgegangen und hat eine Seed‑Finanzierungsrunde über 8 Millionen US‑Dollar abgeschlossen. Das 2022 gegründete Startup von Anushk Mittal und Noorie Dhingra entwickelt eine Plattform, auf der Menschen und KI‑Charaktere gemeinsam an Gruppenchats teilnehmen. Funktional erinnert das an Discord oder WhatsApp – nur dass ein Teil der „Mitglieder“ von einem Sprachmodell gesteuert wird.

Shapes meldet mehr als 400.000 monatlich aktive Nutzer. Die Community hat bereits rund 3 Millionen KI‑Charaktere („Shapes“) erstellt. Diese sind als KI ausgewiesen, können aber wie jeder andere Teilnehmer Nachrichten verfassen, reagieren und Diskussionen anstossen.

Im Gegensatz zu produktivitätsorientierten Gruppenfunktionen, etwa bei ChatGPT, positioniert Shapes sich als soziales, fandom‑getriebenes Netzwerk. Wie TechCrunch berichtet, ist die Nutzerzahl seit Jahresbeginn etwa auf das Sechsfache gestiegen; Tausende verbringen täglich zwei bis vier Stunden in der App. Die Finanzierung, angeführt von Lightspeed mit weiteren AI‑Investoren, soll Entwicklung und Nutzerwachstum beschleunigen.


Warum das relevant ist

Shapes testet nicht nur eine neue App‑Funktion, sondern eine grundlegende Verschiebung: KI wird von einem Werkzeug zu einem sozialen Akteur. Die entscheidende Frage lautet: Wie verändert sich ein digitaler Raum, wenn nicht mehr klar ist, ob die lauteste Stimme menschlich ist?

Die Gründer verweisen auf „AI Psychosis“ – die Sorge, dass lange, einsame Gespräche mit Chatbots Wahnvorstellungen oder ungesunde Abhängigkeit fördern könnten. Ihre Gegenstrategie: KI in den Alltag integrieren, aber in Gruppen, nicht im einsamen 1:1‑Chat. Dort wirken soziale Korrektive: Wenn ein Bot Unsinn schreibt oder grenzüberschreitend wird, können andere eingreifen, widersprechen, ironisieren.

Das ist ein nachvollziehbarer Gedanke. Gleichzeitig verschiebt Shapes die Machtbalance: Die KI‑Charaktere können eigenständig Nachrichten starten. Sie sind also nicht nur Reaktion, sondern Aktion – und damit letztlich ein Algorithmus, der entscheidet, wann unsere Aufmerksamkeit gefordert wird.

Vorteile liegen auf der Hand:

  • Tote Gruppen werden reanimiert, weil „jemand“ immer das Eis bricht.
  • Schüchterne Mitglieder müssen nicht den ersten Schritt machen; ein Bot kann das übernehmen.

Die Risiken sind subtiler:

  • Chats können sich stärker nach Dauerkonversation ohne echte Tiefe anfühlen.
  • Ein nicht müder, hochoptimierter KI‑Teilnehmer kann menschliche Beiträge schlicht übertönen – ähnlich wie Empfehlungsalgorithmen heute schon menschliche Kuratierung verdrängt haben.

Profiteure dieses Modells:

  • Hyper‑Online‑Communities, etwa Fandoms oder Gaming‑Szenen, die ständig neuen Input wollen.
  • Investoren, die nach dem „nächsten sozialen Ding“ nach TikTok suchen.

Verlierer könnten klassische Plattformen sein, die KI lediglich als Assistenz verstehen – und Nutzerinnen und Nutzer, die ohnehin mit Bildschirmzeit und Reizüberflutung kämpfen.


Der grössere Kontext: Von Bots zu „Mitbewohnern“ im Feed

Shapes ist Teil einer breiteren Entwicklung, in der KI schrittweise vom Tool zur Gegenfigur wird.

In den letzten Jahren sind KI‑Begleiter wie Replika oder Character.ai populär geworden: Millionen Menschen führen 1:1‑Gespräche mit digitalen „Freunden“. Shapes überträgt dieses Prinzip in die Gruppe. Aus dem geschlossenen Zweierverhältnis wird ein vielstimmiger Raum, in dem Menschen und synthetische Charaktere gemeinsam interagieren.

Parallelen gibt es bei den Tech‑Grossen: Meta testet KI‑Personas in WhatsApp, Instagram und Messenger; OpenAI erlaubt Gruppenchats mit mehreren GPTs und Menschen, zielt aber eher auf Planung und Produktivität. Shapes dreht den Fokus: Hier geht es um soziale Interaktion als Selbstzweck – inklusive Fankultur, Subreddit‑ähnlichen Gruppierungen und Meme‑Ökonomie.

Historisch gesehen hatten Chats schon immer Bots: von IRC über frühe Messenger bis zu Discord. Der Unterschied heute sind:

  • Sprachmodell‑Fähigkeiten: Längere, kontextreiche, emotional getönte Dialoge statt starrer Skripte.
  • Präsentation als „Charakter“ statt als Werkzeug – inklusive Name, Avatar, „Persönlichkeit“.

Damit entstehen neue Muster:

  • Parasoziale Dreiecksbeziehungen (Mensch–Mensch–KI), in denen sich eine Gruppe gemeinsam mit einem Bot identifiziert.
  • Community‑Seeding durch KI: Eine neue Gruppe wirkt nicht leer, wenn bereits mehrere lebhaft agierende Shapes mitdiskutieren.

Es zeichnet sich ein strategischer Wettlauf ab: Wer baut die Plattform, in der Nutzer sich nicht nur mit anderen Menschen, sondern auch mit einem Ensemble aus KI‑Figuren umgeben? Gelingt Shapes ein Vorsprung bei UX und Kultur, wird das Modell kopiert werden – von Discord über Telegram bis hin zu europäischen Angeboten.


Der europäische und DACH‑Blick

Im europäischen Kontext ist Shapes ein Lackmustest für zwei zentrale Regulierungsprojekte: den AI Act und den Digital Services Act (DSA).

Der AI Act schreibt Transparenz vor: Nutzer müssen erkennen können, dass sie mit einer KI interagieren. Shapes erfüllt das formal, indem es seine Agents kennzeichnet. Doch sobald diese tief in soziale Grafen eingebettet sind, gehen die Fragen weiter:

  • Welche Profiling‑Daten fliessen in die Verhaltenssteuerung der Shapes ein?
  • Wie werden Minderjährige geschützt, wenn KI der aktivste „Freund“ im Chat wird?

Der DSA verlangt von grossen Plattformen eine Analyse systemischer Risiken – darunter Suchtgefahren, Desinformation und Auswirkungen auf das Wohlbefinden. Sollte Shapes im EU‑Markt skalieren, wird es ähnliche Pflichten bekommen wie TikTok oder Instagram: Risikoanalysen, unabhängige Audits, Möglichkeiten zur Begrenzung algorithmischer Einflussnahme.

Speziell im DACH‑Raum kommt eine kulturelle Dimension hinzu:

  • Deutschland, Österreich und die Schweiz haben eine starke Datenschutzkultur; Messenger wie Signal oder Threema sind beliebt, gerade weil sie zurückhaltend mit Daten umgehen.
  • Zugleich ist die Jugendschutz‑Debatte intensiv. Eine App, in der KI systematisch Gespräche anstachelt, wird auf Skepsis stossen – insbesondere bei Eltern und Pädagogen.

Für die europäische Startup‑Szene ist Shapes ein Signal: Die nächste Innovationswelle dürfte an der Schnittstelle von KI und Community‑Produkten liegen. Berlin, München, Zürich oder Wien haben ausreichend KI‑Talent, um Alternativen zu bauen – vielleicht mit einem stärker auf Datenschutz, Open‑Source‑Modelle und Interoperabilität fokussierten Ansatz.


Ausblick: Wohin bewegt sich soziale KI?

Ob Shapes zu einem nachhaltigen Netzwerk oder nur zu einer interessanten Fussnote wird, hängt von mehreren Weichenstellungen ab.

  1. Feinjustierung der „Stimme“ der KI. Wird sie zu dominant, fühlt sich der Chat künstlich an. Ist sie zu passiv, verschwindet der Mehrwert. Nutzer brauchen Werkzeuge, um Frequenz und Rolle der Shapes präzise zu steuern – idealerweise pro Gruppe und pro Charakter.

  2. Geschäftsmodell. Naheliegend ist der Verkauf von Premium‑Shapes mit erweiterten Fähigkeiten oder gebrandeten Persönlichkeiten. Spätestens dann stellt sich die Frage: Unterliegen diese „Figuren“ kommerziellen Zielen, die sie subtil auf Engagement oder Käufe trimmen?

  3. Moderation bei Millionen KI‑Nachrichten. Selbst gut trainierte Modelle produzieren gelegentlich problematische Inhalte. In Gruppenchats kann sich das schnell multiplizieren. Shapes wird robuste Filter, menschliche Moderation und leicht zugängliche Meldemechanismen brauchen – andernfalls drohen Skandale und regulatorische Reaktionen.

  4. Integration in bestehende Ökosysteme. Noch ist Shapes eine Insellösung. Mittel- bis langfristig könnte der grössere Hebel darin liegen, ähnliche KI‑Charaktere als Bots in bestehende Netzwerke (Discord, Telegram, vielleicht sogar iMessage oder Matrix‑Server) zu bringen. Dann aber konkurriert man direkt mit deren eigenen KI‑Plänen.

Für Nutzer im DACH‑Raum lohnt sich in den kommenden 12–18 Monaten vor allem ein Blick auf zwei Indikatoren: Wie hoch ist die durchschnittliche Verweildauer – und welchen Anteil an den Nachrichten haben KI‑Beiträge? Historisch kippt die Akzeptanz, sobald Algorithmen nicht nur kuratieren, sondern dominieren.


Fazit

Shapes ist ein mutiger und zugleich beunruhigender Versuch, KI vom stillen Assistenten zum lauten Mitbewohner im Gruppenchat aufzuwerten. Das kann einige Risiken einsamer KI‑Nutzung abmildern, birgt aber neue Gefahren: permanente Anstachelung, unklare Verantwortlichkeiten und eine weitere Verschmelzung von sozialem Leben und Algorithmus.

Wenn der aktivste „Freund“ im Chat kein Mensch ist, verschieben sich Normen. Die entscheidende Frage für europäische Nutzerinnen und Nutzer lautet: Wollen wir solche halbsynthetischen Sozialräume – und falls ja, unter welchen klaren Regeln?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.