KI-Whistleblower auf Reddit: Wie ein gefälschter Lieferdienst-Skandal viral ging

6. Januar 2026
5 Min. Lesezeit
Illustration eines Reddit-Posts über einen KI-generierten Lieferdienst-Whistleblower-Hoax

Ein angeblicher Whistleblower aus einem Lieferdienst-Startup hat Reddit wochenends in Aufruhr versetzt – und sich später als KI-Fake entpuppt.

Der Reddit-Nutzer behauptete, bei einer großen Essensliefer-App zu arbeiten. Er zeichnete das Bild eines betrunkenen Mitarbeiters, der in einer öffentlichen Bibliothek den kostenlosen WLAN-Zugang nutzt, um endlich auszupacken, wie das Unternehmen Fahrerinnen und Kundinnen ausnutzt.

"You guys always suspect the algorithms are rigged against you, but the reality is actually so much more depressing than the conspiracy theories," schrieb der vermeintliche Insider.

Er warf der Firma vor, rechtliche Schlupflöcher zu missbrauchen, um Trinkgelder und Löhne der Fahrer*innen praktisch straflos einzubehalten. Das klang leider durchaus glaubwürdig: DoorDash wurde tatsächlich wegen vorenthaltener Trinkgelder verklagt und zahlte eine Vergleichssumme von 16,75 Millionen US-Dollar.

Die Geschichte schlug ein. Der Beitrag landete auf der Reddit-Startseite und sammelte über 87.000 Upvotes. Auf X kam er auf 208.000 Likes und 36,8 Millionen Impressions.

Dann schaltete sich Journalist Casey Newton ein.

Newton, der den Newsletter Platformer betreibt, kontaktierte den Reddit-Nutzer. Der meldete sich anschließend über Signal und schickte ein Foto eines vermeintlichen UberEats-Mitarbeiterausweises sowie ein 18-seitiges "internes Dokument". Darin wurde beschrieben, wie das Unternehmen mit KI den "desperation score" einzelner Fahrer berechne.

Für Reporter*innen, die sich mit Algorithmen und Gig-Arbeit beschäftigen, klang das wie ein Volltreffer: technisch, detailliert, erschreckend plausibel. Genau das machte Newton stutzig.

"For most of my career up until this point, the document shared with me by the whistleblower would have seemed highly credible in large part because it would have taken so long to put together," schrieb er. "Who would take the time to put together a detailed, 18-page technical document about market dynamics just to troll a reporter? Who would go to the trouble of creating a fake badge?"

Die Antwort im Zeitalter generativer KI: praktisch jede Person mit Zugang zu modernen Tools.

Newton begann, die Angaben tiefergehend zu überprüfen – und stieß auf Widersprüche. Er nutzte Googles Gemini und die dazugehörige SynthID-Technologie, einen unsichtbaren Wasserzeichen-Standard für KI-generierte Bilder. SynthID soll typische Bearbeitungen wie Zuschnitt, Komprimierung oder Filter überstehen. Gemini identifizierte das Ausweisfoto als KI-generiert.

Der Whistleblower war keiner. Es war ein sorgfältig inszenierter KI-Hoax.

Solche Täuschungsversuche waren früher aufwendig: Ein 18-seitiges technisches Papier schreiben, einen Ausweis designen, den Inhalt über mehrere Plattformen streuen – das war ein Projekt für Wochen. Heute reicht ein Nachmittag mit den richtigen Modellen.

"AI slop on the internet has gotten a lot worse, and I think part of this is due to the increased use of LLMs, but other factors as well," sagte Max Spero, Gründer von Pangram Labs, gegenüber TechCrunch. Pangram entwickelt Tools zur Erkennung KI-generierter Texte.

Spero betont, dass nicht nur Trolle dahinterstecken.

"There’s companies with millions in revenue that can pay for ‘organic engagement’ on Reddit, which is actually just that they’re going to try to go viral on Reddit with AI-generated posts that mention your brand name."

Werkzeuge wie Pangram können helfen, synthetische Texte zu markieren. Bei Bildern und Videos ist die Lage jedoch deutlich schwieriger: Generative Modelle erkennen künstliche Inhalte oft nicht zuverlässig, Wasserzeichen wie SynthID sind nicht flächendeckend im Einsatz. Und selbst wenn ein Fake irgendwann enttarnt wird, hat er seinen viralen Moment meist schon hinter sich.

Genau das ist hier passiert: Die gefälschte Whistleblower-Story verbreitete sich rasant, lange bevor Faktenchecks sie einholten.

Die Pointe: Als die TechCrunch-Redaktion intern über "the viral AI food delivery hoax that was on Reddit this weekend" sprach, dachte eine Redakteurin zunächst an einen anderen Fall. Es gab an diesem Wochenende mehr als einen "viral AI food delivery hoax on Reddit".

Für Sie als Nutzerin bedeutet das: Sie bewegen sich auf Social Media zunehmend wie Ermittlerinnen – jede Ausweiskarte, jedes PDF, jede dramatische Beichte kann ein Prompt-Ergebnis sein. Der nächste „zu gute, um wahr zu sein“-Leak muss nicht von einer mutigen Insiderin stammen, sondern vielleicht nur von einem sehr geduldigen KI-Nutzer.

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.