1. Überschrift und Einstieg
Grammarly hat nicht einfach nur eine missglückte Zusatzfunktion veröffentlicht. Das Unternehmen hat eine Grenze überschritten, die für Autorinnen, Wissenschaftler und Journalistinnen zentral ist: Es hat deren hart erarbeiteten Ruf wie einen frei verfügbaren Rohstoff für KI behandelt.
Mit der Funktion Expert Review wurden reale Persönlichkeiten als KI‑Lektorinnen nachgeahmt – ohne Einwilligung. Die nun eingereichte Sammelklage der Journalistin Julia Angwin ist daher mehr als ein Streit um Geld. Sie stellt die Grundannahme vieler Tech‑Firmen in Frage, von San Francisco bis Berlin: dass Name, Stil und Autorität einer Person ebenso verwertbar seien wie ihre Daten. In diesem Kommentar ordne ich ein, was dieser Fall für die KI‑Branche und für Europa bedeutet.
2. Die Nachrichtenlage in Kürze
Laut einem Bericht von TechCrunch hat Grammarly kürzlich eine neue Abo‑Funktion namens Expert Review eingeführt. Für 144 US‑Dollar pro Jahr erhielten zahlende Nutzer KI‑Feedback, das so dargestellt wurde, als stamme es von prominenten Autorinnen und Experten – etwa vom Schriftsteller Stephen King, vom verstorbenen Wissenschaftler Carl Sagan oder von Tech‑Journalistinnen wie Kara Swisher und Julia Angwin.
Wie TechCrunch schreibt, wurden diese Personen zuvor nicht um Zustimmung gebeten. Angwin hat daraufhin eine Sammelklage gegen Superhuman, die Muttergesellschaft von Grammarly, eingereicht. Sie wirft dem Unternehmen vor, die Privat‑ und Persönlichkeitsrechte der Betroffenen verletzt zu haben.
Journalisten, die die Funktion testeten, berichteten von inhaltlich sehr generischen Rückmeldungen. Nach massiver Kritik erklärte Superhuman‑CEO Shishir Mehrotra auf LinkedIn, man habe Expert Review abgeschaltet und entschuldigte sich, verteidigte jedoch grundsätzlich die Idee hinter der Funktion.
3. Warum das wichtig ist
Auf den ersten Blick wirkt das Ganze wie ein weiterer peinlicher KI‑Gag. Doch die Dimension ist deutlich größer.
Grammarly versucht, etwas höchst Persönliches zu monetarisieren: die berufliche Autorität, die mit einem konkreten Namen verbunden ist. Es geht nicht mehr nur darum, dass Trainingsdaten aus Büchern und Artikeln stammen. Nutzerinnen wird explizit suggeriert, sie erhielten eine Art Feedback, das einer bestimmten realen Person zugeschrieben wird. Das berührt den Kern des Rechts am eigenen Bild und der Werbung mit Persönlichkeiten – auch ohne Foto oder Originalzitat.
Kurzfristig wollte Grammarly sein Geschäftsmodell aufwerten: weg vom simplen Rechtschreib‑Tool hin zu einem vermeintlich hochkarätigen, personalisierten Lektoratsservice, für den sich höhere Abo‑Preise rechtfertigen lassen. Verlierer sind die betroffenen Autorinnen und Experten, deren Reputation zur Markenhülle für generische KI‑Ausgaben degradiert wird – ohne Vergütung und ohne Kontrolle.
Gleichzeitig steht viel Vertrauen auf dem Spiel. Wenn beliebige Apps Ihre Lieblingsjournalistin oder Ihren Professor imitieren können: Woher wissen Sie noch, ob hinter einem Namen auf dem Bildschirm ein Mensch steht oder nur eine Marketing‑Maske? Je stärker die Branche solche synthetischen Persönlichkeiten normalisiert, desto mehr entwertet sie echte Expertise und verwischt Verantwortlichkeiten bei falschen oder schädlichen Ratschlägen.
Für die KI‑Industrie ist dieser Fall ein deutliches Signal, dass das bisherige Selbstbedienungsprinzip bei Identitäten an sein Ende kommt.
4. Der größere Kontext
Grammarly reiht sich ein in eine Serie von Vorfällen, die alle in die gleiche Richtung weisen.
In den vergangenen zwei Jahren wurden große KI‑Anbieter wegen des Trainings auf urheberrechtlich geschützten Büchern, journalistischen Archiven und Quellcode verklagt. Gleichzeitig häufen sich Deepfake‑Werbespots und KI‑Influencer, die reale Prominente imitieren. Sprachassistenten werden kritisiert, weil ihre Stimme bekannten Schauspielerinnen zum Verwechseln ähnlich klingt.
Meta experimentiert mit Chatbots, deren Persönlichkeiten offensichtlich an Stars angelehnt sind. OpenAI stand wegen einer Chatbot‑Stimme in der Kritik, die stark an Scarlett Johansson erinnerte. Immer geht es um dasselbe Verkaufsversprechen: Nutzer sollen das Gefühl haben, mit vertrauten Figuren zu interagieren – nur billiger und beliebig skalierbar.
Expert Review überträgt diese Logik auf redaktionelle Urteile: Wozu eine echte Lektorin oder einen erfahrenen Kritiker bezahlen, wenn ein Algorithmus ein ähnliches Flair erzeugt? Aus Sicht von Wachstums‑Investoren mag das effizient wirken. Aus Sicht von Arbeitsrecht, Urheberrecht und Persönlichkeitsrecht ist es eine Form von automatisierter Identitätswäsche.
Historisch betrachtet ist das kein völlig neues Problem. US‑Gerichte haben schon in den 80er und 90er Jahren entschieden, dass Werbespots mit Doppelgängern oder stimmlichen Imitatoren das Persönlichkeitsrecht verletzen können. Der Unterschied heute: KI macht solche Imitationen interaktiv, dauerhaft und massenhaft.
Wenn Gerichte diese alten Grundsätze auf die KI‑Ära übertragen, wird Grammarly kaum das letzte Unternehmen sein, das für identitätsgetriebene Features juristisch zur Verantwortung gezogen wird.
5. Die europäische und DACH‑Perspektive
Aus europäischer Sicht ist der Fall fast ein Musterbeispiel dafür, wofür DSGVO, Digital Services Act und EU‑AI‑Act geschaffen wurden.
Nach DSGVO sind Name, Stimme und andere identifizierende Merkmale personenbezogene Daten. Eine KI‑Funktion, die den Eindruck erweckt, eine konkrete Person zu sein oder zu repräsentieren, verarbeitet solche Daten in einem klar kommerziellen Kontext. Ohne Einwilligung oder eine andere tragfähige Rechtsgrundlage dürfte das in vielen EU‑Ländern schwer zu verteidigen sein.
Hinzu kommen starke Persönlichkeitsrechte in Deutschland, Österreich und der Schweiz. Das allgemeine Persönlichkeitsrecht, das Recht am eigenen Bild und an der eigenen Stimme gelten auch für digitale Imitationen. Ein Service, der Nutzerinnen explizit verspricht, Feedback im Stil einer bestimmten Journalistin oder eines Professors zu liefern, bewegt sich hier auf sehr dünnem Eis.
Für Medienhäuser und Verlage in der DACH‑Region ist das doppelt heikel. Viele kämpfen ohnehin mit sinkenden Abos und der Frage, wie sie ihre Marken in Zeiten generativer KI schützen. Wenn nun Star‑Kolumnistinnen als KI‑Attrappen in fremden Produkten auftauchen, droht eine weitere Erosion der Marke.
Gleichzeitig öffnet sich für europäische KI‑Startups eine Nische: Wer von Beginn an auf Einwilligung, faire Vergütung und strikte Trennung zwischen realen und synthetischen Personas setzt, kann sich positiv vom US‑Mainstream abheben – und regulatorische Risiken minimieren.
6. Ausblick
Die entscheidende Frage lautet: Wie weit werden Gerichte und Aufsichtsbehörden gehen, um Identität in der KI‑Ära zu schützen?
In den USA wird die Sammelklage von Julia Angwin vermutlich klären müssen, ob die Nutzung von Namen und behaupteten Stilen eine unzulässige kommerzielle Ausnutzung der Persönlichkeit darstellt. Spannend wird sein, was interne Dokumente über Risikobewusstsein und Entscheidungsprozesse bei Grammarly und Superhuman verraten.
Unabhängig vom konkreten Urteil ist mit Nachahmerklagen zu rechnen. Jede prominente Stimme – von Podcasterinnen bis zu Professoren – hat nun einen starken Anreiz zu prüfen, ob sie bereits als KI‑Figur missbraucht wird. Versicherer, die Tech‑Unternehmen gegen Haftungsrisiken absichern, dürften ihrerseits deutlich strengere Compliance‑Anforderungen stellen.
Produktseitig zeichnet sich ein Szenario ab, in dem lizenzierte, explizit autorisierte Expertinnen‑Personas entstehen. Denkbar sind Marktplätze, auf denen Journalistinnen, Juristen oder Coaches ihre redaktionelle Handschrift gegen Beteiligung an den Erlösen freigeben, vertraglich begrenzt und deutlich gekennzeichnet. Das löst nicht alle ethischen Probleme, stellt aber zumindest Einwilligung und Vergütung sicher.
In Europa werden Datenschutzbehörden und Medienaufsichten in den kommenden 18 bis 24 Monaten testen, wie weit sie mit bestehendem Recht gegen KI‑Imitationen vorgehen können, bevor neue Spezialregelungen nötig werden. Der Fall Grammarly liefert ihnen dafür ein prominentes Beispiel – und der Branche einen Vorgeschmack darauf, wie teuer Ignoranz gegenüber Persönlichkeitsrechten werden kann.
7. Fazit
Grammarlys Expert Review war mehr als ein Produktfehler. Die Funktion zeigt, wie schnell generative KI menschliche Reputation in eine austauschbare Oberfläche für Standard‑Modelle verwandelt. Wenn Gerichte und Regulierer hier keine klaren Grenzen ziehen, werden synthetische Expertinnen unser Informationsökosystem überschwemmen – während die echten an den Rand gedrängt werden. Für Autorinnen, Verlage und Nutzer bleibt die Frage: Wollen wir diese Entwertung unserer Identität wirklich hinnehmen?



