1. Überschrift & Einstieg
Zeitungsverlage gegen KI – daran haben wir uns fast schon gewöhnt. Doch mit der Klage von Encyclopedia Britannica und Merriam‑Webster gegen OpenAI geraten nun die klassischen Instanzen des Wissens ins Fadenkreuz. Es geht nicht mehr nur darum, ob KI auf urheberrechtlich geschützten Texten lernen darf, sondern ob sie deren Rolle im Netz vollständig übernehmen und ihren Ruf missbrauchen darf. In dieser Analyse beleuchten wir, warum dieser Fall für OpenAI besonders heikel ist, wie er in größere Branchentrends passt und was er für europäische – und speziell DACH‑Publisher – bedeutet.
2. Die Nachricht in Kürze
Laut TechCrunch haben Encyclopedia Britannica und die zugehörige Wörterbuchmarke Merriam‑Webster am 16. März 2026 in den USA Klage gegen OpenAI eingereicht. Der Vorwurf: „massive Urheberrechtsverletzung“. Demnach soll OpenAI nahezu 100.000 Online‑Artikel von Britannica ohne Lizenz gescraped und zum Training seiner Sprachmodelle verwendet haben.
In der Klage heißt es weiter, ChatGPT könne Textpassagen ausgeben, die den Originalartikeln vollständig oder teilweise wortgleich entsprechen. Außerdem nutze OpenAI Britannica‑Inhalte in seinem Retrieval‑Augmented‑Generation‑Workflow (RAG), also beim gezielten Abruf externer Informationen zur Beantwortung von Nutzeranfragen – ebenfalls ohne Erlaubnis. Zusätzlich wirft Britannica OpenAI Verstöße gegen den Lanham Act (US‑Markenrecht) vor, wenn sich ChatGPT Inhalte ausdenkt und sie irreführend der Marke Britannica zuschreibt.
Britannica argumentiert, dass ChatGPT direkt mit den eigenen Angeboten konkurriert, Besucher und Einnahmen abzieht und damit den Zugang zu verlässlichen Online‑Referenzen gefährdet. Das Unternehmen hat bereits eine ähnliche Klage gegen Perplexity eingereicht und reiht sich in eine wachsende Liste von Medien- und Verlagsklagen gegen OpenAI ein.
3. Warum das wichtig ist
Diese Klage trifft gleich drei zentrale Annahmen der heutigen Generative‑AI‑Ökonomie:
- Dass man das frei zugängliche Web weitgehend ohne individuelle Lizenzen zum Training nutzen kann.
- Dass gelegentliche nahezu wortgleiche Ausgaben juristisch hinnehmbar sind.
- Dass KI‑Systeme sich am Ruf etablierter Marken bedienen dürfen, solange sie „nur“ Text generieren.
Frühere Verfahren – etwa von Zeitungsverlagen – zielten vor allem auf Punkt 1 und 2. Britannica legt nun den Finger auf Punkt 3: Vertrauen als Wirtschaftsgut. Ein Wörterbuch oder eine Enzyklopädie verkauft nicht nur Inhalte, sondern Glaubwürdigkeit. Wenn ein Chatbot falsche Fakten erfindet und sie „laut Britannica“ präsentiert, wird genau dieses Produkt beschädigt.
Kurzfristige Gewinner sind deshalb spezialisierte Rechteinhaber: medizinische Datenbanken, juristische Kommentarwerke, Fachverlage. Wenn ein Gericht einer Enzyklopädie besondere Schutzwürdigkeit zugesteht, stärkt das ihre Position in Lizenzverhandlungen erheblich. Die Botschaft lautet: Referenzwerke sind keine beliebigen Web‑Seiten.
Auf der Verliererseite stehen zunächst die großen KI‑Labs. Selbst wenn Gerichte – wie von TechCrunch für einen anderen Fall berichtet – das reine Training auf urheberrechtlich geschützten Inhalten irgendwann als „transformativ“ und damit zulässig einstufen, bleiben zwei Minenfelder:
- die Art der Datenbeschaffung (Scraping versus bezahlte Feeds),
- die Frage der Substitution (ersetzt der Chatbot die Originalquelle im Markt?).
Für OpenAI und Co. bedeutet das:
- mehr Lizenzkosten für hochwertige Datensätze,
- stärkere technische Vorkehrungen gegen wörtliche Übernahmen,
- und deutlich sensiblere Marken- und Zitationslogik im UI.
Im Ergebnis steigen die Eintrittsbarrieren. Wer ein wirklich breites, faktenorientiertes Modell bauen will, braucht nicht nur GPUs, sondern auch einen Stapel Verträge.
4. Der größere Zusammenhang
Die Britannica‑Klage ist kein isoliertes Ereignis, sondern Teil einer größeren Verschiebung: vom „beweglichen Ziel“ der Fair‑Use‑Debatte hin zu einem Lizenz‑ und Markenkonflikt.
Historisch erinnert das an den Kampf um Google News und Leistungsschutzrechte. Suchmaschinen haben Inhalte gescraped, Verlage klagten, der Gesetzgeber schuf neue Rechte (etwa das Presseleistungsschutzrecht), am Ende standen – nach viel Lärm – Lizenzverträge und technische Kompromisse. Der Unterschied: Suchmaschinen liefern Klicks zurück zur Quelle, LLM‑basierte „Antwort‑Engines“ wollen den Nutzer gar nicht mehr loslassen.
Dazu kommen aktuelle Entwicklungen:
- TechCrunch verweist auf einen Fall gegen Anthropic, in dem ein US‑Richter andeutete, dass das Lernen aus Büchern an sich transformativ sein könne – die millionenfache, unerlaubte Beschaffung dieser Bücher jedoch nicht und deshalb zu einem milliardenschweren Vergleich führte.
- Große Medienhäuser wie The New York Times und Ziff Davis argumentieren, dass ChatGPT ihre Inhalte nicht nur nutzt, sondern in vielen Anwendungsfällen de facto ihr Produkt ersetzt.
- Britannica attackiert zusätzlich die Markeninszenierung von KI‑Antworten: Wenn der Chatbot wie ein digitales Nachschlagewerk auftritt, das sich an die Aura klassischer Referenzen anlehnt, wird die Grenze zwischen Zitat und Imitation unscharf.
Im Wettbewerb zeichnet sich eine Spaltung ab:
- Auf der einen Seite kapitalstarke Konzerne (OpenAI/Microsoft, Google, Meta, Anthropic), die sich Datendeals leisten können und Compliance‑Teams aufbauen.
- Auf der anderen Seite kleinere Anbieter und Open‑Source‑Projekte, die stärker auf frei verfügbare oder synthetische Daten setzen müssen und sich auf Nischen spezialisieren.
Die Richtung ist klar: Generative KI verlässt die Grauzone des „erst machen, später fragen“ und bewegt sich hin zu einem Modell, in dem Datenherkunft, Rechtekette und Markenführung genauso wichtig sind wie die Modellarchitektur.
5. Die europäische / DACH-Perspektive
Für Europa ist die Klage ein Lackmustest, auch wenn sie nach US‑Recht geführt wird.
Die EU kennt mit der DSM‑Richtlinie bereits Ausnahmen für Text‑ und Datamining (TDM), allerdings mit Opt‑out‑Möglichkeit. Ob und wie Rechteinhaber dieses Opt‑out technisch erzwingen können, ist in der Praxis noch offen – die Britannica‑Klage erhöht jedoch den Anreiz, es konsequent zu nutzen. Hinzu kommen Datenbankrechte, starke Urheberpersönlichkeitsrechte und bald der EU‑AI‑Act, der Transparenz zu Trainingsdaten und Risikomanagement verlangt.
Für den deutschsprachigen Raum ist der Fall auch deshalb spannend, weil man hierzulande bereits Erfahrungen mit Leistungsschutzrechten und Konflikten rund um Snippets, Aggregatoren und Suchmaschinen gemacht hat (VG Media, News‑Google‑Streit, etc.). Die Lehre von damals: Am Ende setzen sich weniger Grundsatzurteile als wirtschaftliche Arrangements durch.
Auf Seiten der Nutzer birgt der Trend ein Spannungsfeld:
- Wenn Referenzanbieter restriktiv lizenzieren, könnten Wissenslücken in bestimmten Sprachen oder Fachgebieten entstehen – gerade im Deutschen, wo hochwertige Fachliteratur oft hinter Paywalls oder in spezialisierten Datenbanken liegt.
- Andererseits können kuratierte, lizensierte KI‑Dienste Vertrauen schaffen, etwa im Gesundheitsbereich oder bei Rechtsauskünften – wichtig in einer Region, in der Datenschutz und Seriosität besonders hoch gewichtet werden.
Für Aufsichtsbehörden im DACH‑Raum wird das Zusammenspiel von Urheberrecht, Verbraucherschutz und Plattformregulierung interessanter. Wenn ein Chatbot falsche Aussagen Wikipedia oder Britannica zuschreibt, ist das nicht nur IP‑Frage, sondern unter Umständen eine irreführende geschäftliche Handlung – ein Feld, in dem EU‑Instrumente wie der Digital Services Act und nationale Wettbewerbsbehörden aktiv werden könnten.
6. Blick nach vorn
Was ist in den kommenden Jahren zu erwarten?
1. Vergleich statt Grundsatzurteil.
Am wahrscheinlichsten ist ein außergerichtlicher Vergleich. Ein öffentlicher Präzedenzfall zum Status von KI‑Training wäre zwar wünschenswert, birgt aber für beide Seiten erhebliche Risiken. Ein Vergleich mit Zahlungen und Zusagen (Lizenzierung, Co‑Branding, technische Zusicherungen) würde dagegen ein Muster schaffen, an dem sich andere Verhandlungen orientieren.
2. Technische und vertragliche Sicherungen.
OpenAI und seine Wettbewerber werden – freiwillig oder gezwungen – ihre Systeme anpassen müssen:
- strengere Regeln, wann konkrete Quellen genannt werden dürfen,
- robustere Filter gegen nahezu wortlautgleiche Ausgaben aus Referenzwerken,
- vertraglich fixierte Brand‑Safety‑Mechanismen, damit Namen wie „Britannica“ nicht neben groben Fehlern auftauchen.
Das ist nicht nur ein Rechts-, sondern auch ein Produkt‑Thema: Ohne Vertrauen in die Korrektheit ihrer Ausgaben verlieren Chatbots gerade im Unternehmensumfeld an Attraktivität.
3. Fragmentierte Wissensökosysteme.
Refenzanbieter werden sich grob in drei Strategien aufteilen:
- Lizenzpartner der großen Modelle (sichtbar über prominente Logos und Links im Chat‑UI),
- Betreiber eigener Fach‑LLMs auf Basis ihrer Inhalte (etwa im Medizin‑ oder Rechtsbereich),
- und diejenigen, die den Anschluss verlieren und deren Inhalte in der KI‑Welt kaum vorkommen.
Für Unternehmen und Behörden in DACH erwächst daraus eine neue Compliance‑Aufgabe: Können Sie dokumentieren, auf welchen Daten Ihr Modell beruht und welche Nutzungsrechte dafür bestehen? Daten‑Provenienz wird zur Due‑Diligence‑Frage.
Beobachten sollte man in den nächsten 12–24 Monaten:
- ob europäische Referenzverlage (etwa im juristischen oder medizinischen Bereich) ähnliche Klagen anstrengen,
- wie sich die Nutzungsbedingungen großer LLM‑APIs hinsichtlich IP‑Zusicherungen ändern,
- ob Aufseher den DSA nutzen, um gegen irreführende Quellenangaben in generativen Diensten vorzugehen.
7. Fazit
Die Klage von Britannica und Merriam‑Webster zwingt die Branche, eine unbequeme Frage zu beantworten: Dürfen KI‑Konzerne das kollektive Gedächtnis der Menschheit in Antwortmaschinen verwandeln, ohne dafür zu zahlen und ohne an dessen Qualitätsmaßstäben gemessen zu werden? Meine Einschätzung: Die Zeit des ungehemmten Web‑Scrapings neigt sich dem Ende zu. Wer als KI‑Anbieter Autorität beansprucht, wird auf explizite Deals mit den Autoritäten des Wissens angewiesen sein – und daran gemessen werden, wie sauber er ihre Inhalte nutzt. Offen bleibt, ob daraus ein offener, vielfältiger Markt entsteht oder ein Oligopol kuratierter Wissens‑Silos.



