3-Milliarden-Klage gegen Anthropic: Wie Musikverlage das Fundament der KI-Ausbildung angreifen
Generative KI hat kreative Werke jahrelang wie einen frei zugänglichen Datensee behandelt. Mit der neuen Klage gegen Anthropic versuchen Musikverlage, genau dieses Geschäftsmodell zu stoppen.
Ein Konsortium unter Führung von Concord Music Group und Universal Music Group fordert mehr als drei Milliarden Dollar Schadensersatz, weil Anthropic angeblich zehntausende geschützte Musikwerke über Piraterie in seine Trainingsdaten geschleust hat. Bemerkenswert ist weniger die Höhe der Forderung als der juristische Hebel: Angegriffen wird nicht die KI-Ausgabe, sondern die Beschaffung der Trainingsdaten. Wird diese Linie von US-Gerichten bestätigt, verändern sich die Spielregeln für alle Anbieter großer Modelle – auch in Europa.
Im Folgenden ordnen wir ein, was genau vorgeworfen wird, warum der Fall deutlich über frühere KI-Urheberrechtsklagen hinausgeht und welche Konsequenzen sich daraus für die europäische und deutschsprachige KI-Landschaft ergeben.
Die Nachricht in KĂĽrze
Wie TechCrunch berichtet, haben mehrere Musikverlage in den USA eine neue Klage gegen Anthropic eingereicht. Die Kläger – darunter Concord Music Group und Universal Music Group – werfen dem Unternehmen vor, mehr als 20.000 urheberrechtlich geschützte Musikwerke, darunter Kompositionen, Noten und Songtexte, illegal heruntergeladen und zum Training der Claude-Modelle verwendet zu haben.
Der geltend gemachte Schaden soll über drei Milliarden US‑Dollar liegen und damit zu den größten nicht-sammelklagebasierten Urheberrechtsprozessen in der US-Geschichte zählen. Die Klage folgt zeitlich auf den Fall Bartz gegen Anthropic, in dem eine Gruppe von Autorinnen und Autoren das Unternehmen wegen der Nutzung ihrer Bücher verklagte. Laut TechCrunch entschied Richter William Alsup dort, dass das Training von KI-Modellen mit urheberrechtlich geschützten Werken grundsätzlich zulässig sein kann, die Beschaffung dieser Werke über Piraterieseiten jedoch nicht.
Der Autorenfall endete dem Bericht zufolge mit einer Zahlung von rund 1,5 Milliarden Dollar – etwa 3.000 Dollar pro Werk bei ungefähr 500.000 betroffenen Titeln. Im Zuge der Beweisaufnahme wollen die Musikverlage Hinweise gefunden haben, dass Anthropic zusätzlich tausende weitere Musikwerke aus inoffiziellen Quellen bezogen hat. Einen Antrag, die ursprüngliche Musikklage entsprechend zu erweitern, lehnte das Gericht später aus Verfahrensgründen ab; daher folgt nun dieses separate Verfahren, in dem auch CEO Dario Amodei und Mitgründer Benjamin Mann persönlich benannt sind. Anthropic hat auf Anfragen von TechCrunch bislang nicht reagiert.
Warum das wichtig ist
Diese Klage ist kein weiterer, austauschbarer Frontverlauf im „KI vs. Urheberrecht“-Konflikt. Sie zielt auf die Achillesferse der Branche: den Datenbeschaffungsprozess.
Nach Alsups Grundsatzentscheidung zeichnet sich in den USA ein Dreiklang ab:
- Training an sich auf urheberrechtlich geschütztem Material könnte als zulässig gelten, sofern es transformativ ist.
- Ausgaben, die geschützte Werke praktisch eins zu eins reproduzieren (etwa vollständige Liedtexte), bleiben riskant.
- Beschaffung wird zur kritischen Zone: Wer aus eindeutig illegalen Quellen schöpft, kann sich nicht hinter Fair-Use-Argumenten verstecken.
Genau hier setzen die Musikverlage an. Sie behaupten, Anthropic habe nicht nur den „offenen“ Teil des Netzes gecrawlt, sondern systematisch auf Piraterie-Plattformen zugegriffen. Sollte sich das belegen lassen, wird aus einer abstrakten Debatte über KI-Training ein klassischer Urheberrechtsfall – ein Terrain, auf dem die Musikbranche seit Napster geübt ist.
Wer profitiert?
- Große Rechteinhaber gewinnen Verhandlungsmacht: Ohne klare Lizenz droht ein Kostenrisiko in Milliardenhöhe.
- Finanzstarke Tech-Konzerne und KI-Labs könnten am Ende sogar gestärkt hervorgehen. Wenn Trainingsdaten teuer und hochreguliert werden, bleibt der Aufbau großer Modelle den Kapitalstärksten vorbehalten – OpenAI, Google, Microsoft, Meta & Co.
- Kleine Startups und Open-Source-Projekte geraten unter Druck. Sie können weder Milliardenvergleiche zahlen noch mit GEMA, Universal & Co. auf Augenhöhe verhandeln.
Kurzfristig sendet der Fall ein klares Signal: Die Zeit des „Scrape now, ask later“ ist vorbei. Wer in sensiblen Bereichen wie Musik, Film oder Literatur trainieren will, braucht eine nachvollziehbare Datenherkunft und idealerweise schriftliche Lizenzen.
Der größere Kontext
Die Klage fĂĽgt sich ein in eine ganze Serie von Auseinandersetzungen zwischen Kulturindustrie und KI-Anbietern:
- Zeitungsverlage und Autor:innen in den USA und GroĂźbritannien klagen gegen OpenAI, Microsoft und andere wegen massenhaften Kopierens ihrer Archive.
- Getty Images geht in mehreren Jurisdiktionen gegen Stability AI wegen der Nutzung urheberrechtlich geschĂĽtzter Bilder vor.
- Musiklabels bekämpfen KI-Dienste, die Stimmen bekannter Künstler:innen imitieren oder „AI Drake“-Songs viral gehen lassen.
Im Fall Anthropic kommt ein besonderer Aspekt hinzu: Nach den Recherchen von TechCrunch werfen die Verlage nicht nur aggressives Crawling, sondern klassische Massenpiraterie vor. Das ist nicht mehr die Grauzone von Robots.txt, sondern der Verdacht des gezielten Downloads von Inhalten aus Quellen, die jeder juristische Laie als illegal erkennt.
Historisch gesehen nutzt die Musikindustrie solche Musterfälle, um Branchenstandards zu erzwingen. Napster, Grokster, Megaupload – immer wieder wurde ein prominenter Sündenbock juristisch vernichtet, während im Hintergrund ein neues Lizenzmodell etabliert wurde (iTunes, Streaming etc.).
Ăśbertragen auf KI bedeutet das:
- GroĂźe Labs werden gezwungen sein, umfassende Kataloglizenzen zu erwerben oder auf musikreiche Trainingsdaten zu verzichten.
- Es entsteht ein Markt für „Training Rights“ – spezielle Rechtepakete, die über klassische Verwertungsrechte hinausgehen und explizit das Maschinentraining abdecken.
- Modellarchitekturen werden sich stärker auf synthetische und eigens produzierte Daten stützen; kulturelle Inhalte werden gezielter, nicht mehr wahllos, eingesetzt.
Perspektivisch droht damit eine ähnliche Konzentration wie im Musikstreaming: Einige wenige globale Plattformen schließen teure Exklusivdeals mit Verwertungsgesellschaften – der Rest mietet den Zugang.
Die europäische / DACH-Perspektive
Für Europa und den DACH-Raum ist der Fall hochrelevant, weil er zentrale Annahmen des EU-Regelwerks bestätigt – und zugleich neue Spannungsfelder schafft.
1. EU-AI-Act und Transparenzpflichten
Der AI Act verpflichtet Anbieter von General-Purpose-Models zu mehr Transparenz über Trainingsdaten und zur Beachtung von Opt-out-Erklärungen von Rechteinhabern. Wenn US-Gerichte gleichzeitig klarstellen, dass Piraterie in der Trainingspipeline justiziabel ist, wird jede Offenlegung zur Haftungsfalle: Wer zugibt, aus „dunklen Ecken“ des Netzes geschöpft zu haben, lädt Klagen förmlich ein.
2. Urheberrechtsrichtlinie (DSM) und TDM-Rechte
Die DSM-Richtlinie hat in Europa einen Sonderweg für Text- und Data-Mining etabliert. Kommerzielle Nutzer müssen Opt-outs respektieren, Forschung genießt weitergehende Freiheiten. Das stärkt Organisationen wie GEMA, SACEM, AKM oder SUISA, die künftig spezielle „KI-Lizenzen“ für Musik anbieten können. Die Klage gegen Anthropic liefert ihnen das perfekte Argument: Wer nicht lizenziert, riskiert milliardenschwere Prozesse.
3. Datenschutz und Kulturpolitik im DACH-Raum
In Deutschland, Österreich und der Schweiz ist die Sensibilität für Datenschutz und Urheberrecht traditionell hoch. Die Vorstellung, dass ein US-KI-Lab massenhaft Werke deutschsprachiger Künstler:innen aus illegalen Quellen saugt, dürfte politisch toxisch sein. Gleichzeitig wollen Berlin, München und Zürich ihre Rolle als KI-Standorte ausbauen. Daraus ergibt sich ein Zielkonflikt: Wie schafft man verlässliche Lizenzwege, ohne Innovation nur noch für Konzerne mit Silicon-Valley-Budget möglich zu machen?
Für regionale KI-Startups heißt das: Wer Modelle mit Musik- oder Textfähigkeiten baut, braucht von Anfang an eine Datenstrategie, die GEMA und Co. standhält. Für Rechteinhaber im deutschsprachigen Raum eröffnet sich dagegen die Chance, jenseits von Streaming erstmals nennenswerte Einnahmen aus KI-Training zu erzielen.
Ausblick
Wie geht es weiter? Einige Szenarien sind absehbar.
Enger Präzedenzfall oder Weichenstellung?
Zieht das US-Gericht eine klare Grenze nur bei offensichtlich illegalen Quellen (Piraterieseiten), bleibt massives Webscraping rechtlich riskant, aber nicht per se unzulässig. Definiert es „unrechtmäßige Beschaffung“ breiter, könnten viele heutige Datensammlungen ex post problematisch werden.
Vergleich oder Grundsatzurteil?
Angesichts der von TechCrunch genannten Bewertung Anthropics könnte das Unternehmen eine Milliardensumme zahlen, ohne existenziell bedroht zu sein. Ein öffentlicher Prozess mit tiefer Einblicke in Datenpipelines wäre für die gesamte Branche unangenehm – und könnte offene Flanken bei anderen Labs sichtbar machen. Viele Wettbewerber werden insgeheim auf einen diskreten Vergleich hoffen.
Lizenzierungswelle in Europa
Verwertungsgesellschaften in der EU – GEMA, SACEM, SGAE, HDS ZAMP, SAZAS und andere – werden das Momentum nutzen, um standardisierte KI-Lizenzen zu entwickeln. Denkbar sind abgestufte Tarife für Forschung, KMU und Großkonzerne. Wer hier früh praktikable Modelle anbietet, kann europaweit zum De-facto-Standard werden.
Offene Forschung zwischen den StĂĽhlen
Am gefährdetsten ist die offene Forschung: Universitäten, unabhängige Labs und Open-Source-Communities verfügen selten über Budgets für groß angelegte Lizenzen. Wenn Politik hier keine Ausnahmen oder Fördermechanismen schafft, droht eine Oligopolisierung von KI-Wissen bei wenigen großen Playern.
Fazit
Die neue Drei-Milliarden-Klage gegen Anthropic markiert einen Wendepunkt: Nicht länger steht die grundsätzliche Frage im Fokus, ob KI aus urheberrechtlich geschützten Werken lernen darf, sondern auf welcher Grundlage sie diese Werke überhaupt einsammelt. Sollte sich der Piraterievorwurf bestätigen, wird kaum ein Gericht Mitleid mit einem Unternehmen haben, das seine „sichere“ KI auf illegal beschaffte Daten stützt.
Langfristig ist klar: KI wird weiter aus menschlicher Kultur lernen – aber nicht mehr kostenlos. Entscheidend für Europa und den DACH-Raum ist nun, ob die entstehende Lizenzökonomie Vielfalt und offenen Zugang zulässt oder ob Daten, neben Rechenleistung, zum nächsten Engpass werden, der Innovation auf einige wenige globale Konzerne konzentriert. Wer sorgt dafür, dass kulturelle Werke als Trainingsgrundlage nicht zur exklusiven Ressource werden, sondern Teil einer fair vergüteten, aber zugänglichen Infrastruktur bleiben?



