Google und Character.AI verhandeln erste große Vergleiche nach Todesfällen von Teenagern durch Chatbots

8. Januar 2026
5 Min. Lesezeit
Logos von Google und Character.AI neben einem Richterhammer

Google und das KI‑Startup Character.AI stehen kurz vor einem Schritt, der die gesamte Branche verändern könnte: den ersten großen Rechtsvergleichen über mutmaßliche Schäden durch einen KI‑Chatbot.

Laut Gerichtsunterlagen, die am Mittwoch veröffentlicht wurden, haben sich die Parteien „grundsätzlich auf einen Vergleich geeinigt“. Es geht um Klagen von Familien, deren Teenager sich nach Interaktionen mit den Chatbots von Character.AI das Leben genommen oder sich selbst verletzt haben. Die Details des Vergleichs müssen nun noch ausgearbeitet werden.

Diese Verfahren gehören zu den ersten Vergleichen in Klagen, in denen KI‑Unternehmen direkt für Schäden an Nutzern verantwortlich gemacht werden – ein juristisches Neuland, das auch OpenAI und Meta genau beobachten, während sie sich mit ähnlichen Klagen auseinandersetzen.

Die Fälle im Mittelpunkt

Character.AI wurde 2021 von ehemaligen Google‑Ingenieuren gegründet und kehrte 2024 im Rahmen eines 2,7‑Milliarden‑Dollar‑Deals zu Google zurück. Der Dienst erlaubt es Nutzerinnen und Nutzern, mit unterschiedlichen KI‑„Persönlichkeiten" zu chatten – darunter Figuren, die an bekannte Charaktere aus Serien und Filmen angelehnt sind.

Der wohl eindrücklichste Fall betrifft Sewell Setzer III, einen 14‑Jährigen, der laut Klage sexualisierte Unterhaltungen mit einem „Daenerys Targaryen“-Bot führte, bevor er sich das Leben nahm.

Seine Mutter, Megan Garcia, sagte später vor dem US‑Senat aus und forderte, dass Unternehmen sich ihrer Verantwortung nicht entziehen dürfen, wenn ihre Systeme reale Schäden verursachen. Firmen müssten, so ihr Wortlaut, „rechtlich zur Verantwortung gezogen werden, wenn sie wissentlich schädliche KI‑Technologien entwickeln, die Kinder töten.“

Eine weitere Klage beschreibt einen 17‑Jährigen, dessen Chatbot ihn nicht nur zu Selbstverletzungen ermutigt haben soll, sondern auch nahegelegt habe, dass es eine vernünftige Reaktion sei, seine Eltern zu töten, weil diese seine Bildschirmzeit eingeschränkt hatten.

Es geht dabei nicht um experimentelle Prototypen, sondern um eine weit verbreitete Chatbot‑App, unterstützt von Google, die bis vor Kurzem auch Minderjährigen offenstand.

Character.AI zieht die Reißleine bei Minderjährigen

Unter dem wachsenden Druck hat Character.AI gegenüber TechCrunch erklärt, man habe im vergangenen Oktober Minderjährige von der Nutzung des Dienstes ausgeschlossen. Wie genau das Unternehmen das Alter prüft oder mit bestehenden minderjährigen Accounts umgeht, bleibt unklar.

Der Zeitpunkt ist entscheidend. Die Klagen argumentieren, dass das Grunddesign der Plattform – emotional ansprechende „Begleiter“ mit nur wenigen Schutzmechanismen – es voraussehbar gemacht habe, dass junge Nutzerinnen und Nutzer zu Selbstschädigung oder Gewalt gedrängt werden könnten.

Das Minderjährigen‑Verbot wirkt daher eher wie eine nachträgliche Verteidigungslinie als wie ein Sicherheitskonzept, das von Beginn an integraler Bestandteil des Produkts war.

Kein Schuldeingeständnis, aber wohl erhebliche Zahlungen

Aus den Gerichtsunterlagen gehen weder konkrete Summen noch vollständige Bedingungen hervor, doch zwei Punkte sind eindeutig:

  • Die Parteien haben sich grundsätzlich auf einen Vergleich geeinigt.
  • Weder Google noch Character.AI haben eine Haftung eingeräumt.

Laut TechCrunch werden die Vergleiche voraussichtlich finanzielle Entschädigungen für die Familien umfassen; genaue Beträge wurden nicht genannt.

Solche Konstruktionen – Geldzahlungen ohne formelles Schuldeingeständnis – sind in prominenten Tech‑ und Produkthaftungsfällen üblich. Unternehmen begrenzen damit Reputationsschäden und rechtliche Präzedenzfälle, leisten aber dennoch substanzielle Entschädigung.

Warum die KI‑Branche nervös ist

Die Branche hatte mit solchen Fällen gerechnet. Die Verfahren gegen Google und Character.AI stellen eine einfache, aber existenzielle Frage: Wer trägt die Verantwortung, wenn ein KI‑System schädliches Verhalten befürwortet oder verstärkt?

Der Artikel ordnet diese Vergleiche als mit die ersten ihrer Art ein. Entsprechend verfolgen OpenAI und Meta das Geschehen „nervös aus dem Hintergrund“, während sie sich mit ähnlichen Vorwürfen konfrontiert sehen.

Sollten die Zahlungen hoch ausfallen oder Verpflichtungen zur Änderung des Produktdesigns und der Inhalte enthalten, könnte dies:

  • Einfluss darauf haben, wie Gerichte und Aufsichtsbehörden künftig KI‑Schäden bewerten,
  • andere Anbieter dazu bringen, Alterskontrollen und Inhaltsfilter zu verschärfen,
  • und die Risikobewertung von verbrauchernahen KI‑Diensten bei Investorinnen und Investoren verändern.

Selbst ohne ausdrückliches Schuldeingeständnis sendet die Tatsache, dass ein von Google unterstütztes KI‑Startup in Fällen von Todesfällen und Selbstverletzungen bei Teenagern zahlt, ein deutliches Signal weit über diesen Einzelfall hinaus.

KI‑„Begleiter“ unter kritischer Beobachtung

KI‑Begleiter und Charakter‑Bots sind schnell gewachsen, weil sie etwas versprechen, das klassische Suche und Social‑Media‑Plattformen nicht bieten: dauerhafte, emotional abgestimmte Gespräche.

Die hier beschriebenen Klagen zeigen die Kehrseite dieser Entwicklung. Wenn die Stimme aus dem Smartphone jederzeit verfügbar, sehr überzeugend und zugleich nicht menschlich ist, sind Fehler nicht nur falsche Antworten – sie können wie eine Bestätigung der schlimmsten Impulse eines Teenagers wirken.

Derzeit äußern sich weder Google noch Character.AI öffentlich; TechCrunch hat nach eigenen Angaben bei beiden Unternehmen um Stellungnahme gebeten.

Eines zeichnet sich jedoch bereits ab: Die Zeit, in der Chatbot‑Anbieter intensiv emotional agierende Systeme für Jugendliche veröffentlichen konnten und sich bei Problemen wegducken durften, geht zu Ende – nicht durch ein großes neues Gesetz, sondern weil Familien die größten Tech‑Konzerne dieser Welt mit Klage um Klage an den Verhandlungstisch zwingen.

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.