1. Überschrift und Einstieg
Viele Entwicklerinnen und Entwickler im DACH‑Raum haben diese Woche ihre GitHub‑Seite geöffnet – und fanden plötzlich harmlos wirkende Forks im Wartungsmodus vor. Grund war kein Sicherheitsvorfall, sondern ein überzogener DMCA‑Takedown rund um geleakten Client‑Code von Anthropic. Der Vorfall wirkt auf den ersten Blick wie ein bedauerliches Missverständnis. Tatsächlich ist er ein Lehrstück: Wie leicht lassen sich wesentliche Teile unserer Open‑Source‑Infrastruktur durch einen einzigen Rechtsakt ins Wanken bringen? Und was passiert, wenn zunehmend KI den Code schreibt, über den wir streiten?
2. Die Nachricht in Kürze
Wie Ars Technica berichtet, hat Anthropic am Dienstagabend bei GitHub einen DMCA‑Takedown beantragt. Ziel war ein Repository eines Nutzers mit dem Handle „nirholas“, das den geleakten Quellcode des Claude‑Code‑Clients enthielt. In der Meldung waren zudem knapp 100 konkrete Fork‑URLs genannt, die denselben Leak spiegelten.
GitHub beließ es jedoch nicht bei dieser Liste. Unter Verweis auf die Aussage des Rechteinhabers, dass alle oder die meisten Forks im Netzwerk denselben Verstoß darstellten, deaktivierte die Plattform vorübergehend rund 8.100 verwandte Repositories. Darunter befanden sich auch Forks von Anthropics eigenem offiziellen Claude‑Code‑Repository, das eigentlich offen ist, um Fehlerberichte und Beiträge der Community zu sammeln.
Nach teils scharfer Kritik in sozialen Medien wandte sich Anthropic am Mittwoch erneut an GitHub. Das Unternehmen bat darum, den Takedown auf die 96 im Originalschreiben genannten Forks zu beschränken und alle anderen Repositories wieder freizuschalten. Vertreter Anthropics sprachen von einem unbeabsichtigten Kommunikationsfehler. Unterdessen kursiert der geleakte Client‑Code weiterhin – auf GitHub, auf der in Deutschland gehosteten Plattform Codeberg sowie in Form von „Clean‑Room“-Neuimplementierungen in anderen Programmiersprachen.
3. Warum das wichtig ist
Der Vorfall ist mehr als ein peinlicher Ausrutscher einer Rechtsabteilung. Er legt drei strukturelle Probleme offen, die für den deutschsprachigen Raum besonders relevant sind.
Erstens zeigt er, wie riskant unsere Abhängigkeit von zentralisierten Plattformen ist. GitHubs Mechanismus, ganze Fork‑Netzwerke auf einen Schlag zu deaktivieren, verwandelt eine übergriffige Meldung in tausendfache Kollateralschäden. Selbst wenn die Repositories nach 24 Stunden wieder online sind: Das Vertrauen, dass Open‑Source‑Arbeit stabil und frei zugänglich bleibt, bekommt einen sichtbaren Riss.
Zweitens wird deutlich, wie schlecht klassische Urheberrechtslogik zu den technischen Realitäten von 2026 passt. Einmal geleakter Quellcode – und sei es „nur“ Client‑Code – lässt sich faktisch nicht mehr aus dem Netz tilgen. Mirrors, ZIP‑Archive, private Gitea‑Instanzen, paste‑Dienste: die Verbreitung ist nicht kontrollierbar. Parallel erzeugen Entwickler mit Hilfe von KI‑Codern wie Claude, Copilot & Co. funktionsgleiche Neuimplementierungen in Python, Rust oder Go. Ob diese rechtlich wirklich unabhängige Werke darstellen, wird Gerichte beschäftigen. Praktisch aber ist klar: Die Kontrolle über konkrete Textzeilen ist verloren.
Drittens bringt Anthropic selbst eine heikle juristische Komponente ins Spiel. Der Leiter von Claude Code hat öffentlich betont, dass in einem jüngeren Zeitraum 100 % seiner Commits von Claude generiert wurden. Die US‑Copyright‑Behörde unterscheidet klar zwischen KI‑unterstützten Werken und vollständig KI‑erzeugten Inhalten und gewährt Letzteren nur eingeschränkten Schutz. Wenn wesentliche Teile des geleakten Codes nicht von Menschen, sondern von einem Modell stammen, sind die klassischen Ansprüche aus dem Urheberrecht angreifbarer. Das legitimiert keine wilden Re‑Uploads, schwächt aber die moralische Erzählung vom „gestohlenen Werk“ deutlich ab.
4. Der größere Kontext
Im größeren Bild reiht sich der Fall nahtlos in eine Serie von Auseinandersetzungen ein, bei denen Urheberrecht als Steuerinstrument für Ökosysteme dient.
GitHub war schon im Zentrum, als die Musikindustrie gegen youtube‑dl vorging und damit faktisch ein Werkzeug traf, das vielen Journalistinnen, Forschern und Entwicklern diente. Im KI‑Umfeld nutzen OpenAI, Google, Meta und andere verstärkt Nutzungsbedingungen und IP‑Recht, um Zugriff auf Modelle und APIs zu kontrollieren. Anthropic übernimmt nun dieses Muster – mit der Besonderheit, dass der umkämpfte Code zu großen Teilen von der eigenen KI stammt.
Parallel tobt der Streit um Trainingsdaten und Output generativer Modelle. Copilot steht in den USA wegen angeblicher Verletzung von Open‑Source‑Lizenzen vor Gericht. In Europa fragen sich Maintainer, ob ihr Code ungewollt als Trainingsmaterial für proprietäre Modelle endete. Gleichzeitig ziehen Unternehmen im DACH‑Raum – vom Mittelständler bis zum Konzern – die Reißleine, nachdem Mitarbeitende versehentlich Quellcode oder Zugangsdaten in Chatbots eingefügt haben. In dieser Gemengelage wird jeder Leak von Client‑Code als Sicherheits‑, Compliance‑ und Reputationsrisiko wahrgenommen.
Hinzu kommt ein neuer, KI‑getriebener „Streisand‑Effekt“: Versuche, Informationen unter Druck verschwinden zu lassen, führen oft dazu, dass die Community sie mit Hilfe derselben Technologien in verbesserter Form rekonstruiert. Wenn Anthropic einen TypeScript‑Client vom Netz haben will, ist die naheliegende Reaktion mancher Entwickler, einen besser strukturierten Python‑ oder Rust‑Client zu bauen – und diesen stolz als eigenständiges Projekt zu veröffentlichen.
Und schließlich zeigt der Vorgang noch einmal gnadenlos: „Security by Obscurity“ auf der Client‑Seite ist tot. Wer sich darauf verlässt, dass niemand den in Browser oder App ausgerollten Code versteht oder extrahiert, hat den Kampf schon verloren. Kritische Logik und Missbrauchsschutz müssen serverseitig gestaltet werden, so dass ein Leak peinlich, aber nicht existenzbedrohend ist.
5. Die europäische / DACH‑Perspektive
Für Europa und den DACH‑Markt ist die Causa in mehrfacher Hinsicht lehrreich.
Einerseits wirkt der DMCA extraterritorial über Plattformen wie GitHub. Ein Berliner oder Zürcher Open‑Source‑Maintainer unterliegt faktisch dem US‑Takedown‑Regime, obwohl europäisches Urheberrecht und Grundrechtecharta eigentlich andere Schwerpunkte setzen. Das Spannungsfeld zwischen US‑Plattformrecht und EU‑Regulierung wird hier sehr konkret.
Andererseits tritt mit Codeberg ein europäischer Gegenpol ins Blickfeld: ein in Deutschland gehosteter Forge, betrieben von einem Verein, technisch auf Forgejo/Gitea basierend. Codeberg fällt nicht unter die DMCA, wohl aber unter das EU‑Urheberrecht, die DSM‑Richtlinie und die neuen Vorgaben des Digital Services Act (DSA). Dieser verlangt transparente Notice‑and‑Action‑Verfahren, Begründungspflichten und effektive Rechtsbehelfe für betroffene Nutzer. Ein „Netzwerk‑Takedown“ wie auf GitHub wäre in diesem Rahmen deutlich schwerer zu rechtfertigen.
Für den datenschutzsensiblen DACH‑Raum könnte der Vorfall ein weiterer Anstoß sein, GitHub‑Monokulturen zu überdenken: Mirror‑Strategien, eigene GitLab‑Instanzen etwa bei Hochschulen oder Mittelständlern, oder der Umzug kritischer Projekte auf EU‑gehostete Plattformen gewinnen an Attraktivität. Wer AI‑Clients in Deutschland vertreibt, muss zudem bedenken, dass aggressive Telemetrie und Anti‑Leak‑Mechanismen schnell mit der DSGVO kollidieren.
Vor dem Hintergrund des EU‑AI‑Acts stellt sich eine politischere Frage: Wie weit sollen KI‑Anbieter bei der Durchsetzung vermeintlicher Schutzrechte gehen dürfen, bevor dies Innovation und offene Zusammenarbeit in Europa abwürgt?
6. Ausblick
Wie geht es weiter? Drei Entwicklungen sind absehbar.
Erstens werden Git‑Plattformen ihre Takedown‑Prozesse differenzieren müssen. Pauschale Netzwerklöschungen erzeugen zu viel Kollateralschaden. Wir werden feinere Werkzeuge sehen: Einschränkung einzelner Branches, temporäre Sperren mit klaren Einspruchswegen, vielleicht sogar unabhängige Beschwerdestellen für Open‑Source‑Projekte mit großer Nutzerbasis.
Zweitens werden KI‑Unternehmen ihren Fokus von Reaktions‑ auf Präventionsstrategien verschieben. Anstatt Leaks hinterherzulaufen, werden sie Architektur und Prozesse so gestalten müssen, dass ein Leak kalkulierbar bleibt: keine Geheimnisse im Client, konsequente Trennung von Frontend und Sicherheitslogik, kurze Schlüssel‑Lebensdauern, Monitoring von Missbrauch – alles unter dem Brennglas von DSGVO und DSA, wenn europäische Nutzer betroffen sind.
Drittens wird die Frage des Urheberrechtsschutzes für KI‑generierten Code höchstwahrscheinlich justiziabel. Früher oder später wird ein Entwickler im Rahmen eines DMCA‑Verfahrens oder einer EU‑Klage argumentieren, dass der Anspruchsteller mangels menschlicher Schöpfungshöhe keine klassischen Rechte geltend machen kann – oder dass eine „Clean‑Room“-Implementierung mit Hilfe eines Modells kein abgeleitetes Werk ist. Die ersten Grundsatzurteile werden den Handlungsspielraum von Anbietern wie Anthropic, aber auch von Tools wie Copilot oder Claude Code maßgeblich bestimmen.
Für Teams im DACH‑Raum lautet die pragmatische Konsequenz: Single‑Point‑of‑Failure vermeiden, rechtliche Risiken beim Einsatz von KI‑Coder‑Tools aktiv managen und Notfallpläne dafür haben, dass ein kritisches Repository plötzlich verschwindet – ob zu Recht oder zu Unrecht.
7. Fazit
Anthropics DMCA‑Fehltreffer ist kein bedauerlicher Einzelfall, sondern ein Symptom einer Schieflage: Wir versuchen, eine von KI generierte, global verteilte Code‑Landschaft mit Werkzeugen zu regulieren, die für eine andere Zeit gebaut wurden. Solange Plattformen Takedowns großflächig automatisieren und KI‑Firmen IP‑Recht als Allzweckwaffe nutzen, werden uns ähnliche Kollateralschäden begleiten. Die entscheidende Frage für europäische Entwickler ist daher: Wie viel Souveränität wollen – und können – wir uns über unsere Infrastruktur und unseren Code zurückholen?



