Google sammelt Ihre Ausweisnummern zum Schutz vor Doxxing. Ein guter Deal?

10. Februar 2026
5 Min. Lesezeit
Person sitzt am Laptop und prüft Sicherheits- und Privatsphäre-Einstellungen in Google

Google positioniert sich immer stärker als Türsteher unserer digitalen Identität. Die aufgerüsteten Tools „Ergebnisse zu dir“ und das Verfahren zum Entfernen nicht-einvernehmlicher Nacktaufnahmen versprechen besseren Schutz vor Doxxing und Deepfake-Pornografie – allerdings nur, wenn Nutzer Google sehr sensible Daten wie Ausweisnummern anvertrauen.

Das ist mehr als ein kleines Feature‑Update. Es ist ein Lackmustest dafür, wie weit wir bereit sind, unsere persönliche Sicherheit an eine werbefinanzierte US‑Plattform auszulagern. Im Folgenden analysiere ich, was sich ändert, welche Machtverschiebungen dahinterstehen, was das für Europa und den DACH‑Raum bedeutet und wo Regulierung nachziehen muss.

Die Nachricht in Kurzform

Wie Ars Technica berichtet, hat Google zwei sicherheitsrelevante Funktionen rund um die Websuche erweitert.

Erstens kann das Dashboard „Results About You“ (im Deutschen sinngemäß „Ergebnisse zu dir“) künftig weitere Kategorien persönlicher Informationen automatisch im Netz aufspüren: Identifikationsnummern wie Pass‑, Führerschein‑ oder US‑Sozialversicherungsnummern. Damit das funktioniert, müssen Nutzer Google diese Daten zumindest teilweise mitteilen – beim Führerschein die vollständige Nummer, bei Pass und Sozialversicherungsnummer die letzten vier Ziffern.

Zweitens wurde das Tool für Meldung und Entfernung nicht-einvernehmlicher expliziter Bilder, einschließlich KI‑erzeugter Deepfake‑Pornografie, vereinfacht. Nutzer können jetzt direkt über das Drei‑Punkte‑Menü bei jedem Bildsuchergebnis einen Entfernungsantrag stellen, angeben, ob es sich um ein reales Foto oder einen Deepfake handelt, und mehrere Bilder in einem Vorgang bündeln.

Wie Ars Technica betont, entfernt Google die Inhalte nicht von der Ursprungsseite, sondern de‑indexiert sie lediglich aus der Suche. Beide Tools bieten nun auch ein laufendes Monitoring mit E‑Mail‑Benachrichtigungen, sobald neue Treffer erkannt werden. Das Scannen nach Ausweisnummern ist bereits aktiv, die verbesserten NCEI‑Abläufe sollen in „den meisten Ländern“ ausgerollt werden.

Warum das relevant ist

Auf den ersten Blick ist das ein klarer Fortschritt: weniger Doxxing, weniger rufschädigende Deepfakes, mehr Kontrolle über die eigene Sichtbarkeit. Doch der Preis für diese Schutzschicht ist nicht trivial.

Wer profitiert?

  • Gefährdete Gruppen – Journalist:innen, Aktivist:innen, Politiker:innen, Opfer häuslicher Gewalt – erhalten ein praktikables Instrument, um die Auffindbarkeit sensibler Daten und Bilder zu minimieren.
  • Durchschnittsnutzer ohne Spezialwissen zu Suchoperatoren oder Reputationsmanagement erhalten erstmals eine relativ einfache Möglichkeit, besonders kritische Informationen aufzuspüren und aus den Suchergebnissen zu entfernen.

Wer verliert?

  • Datenhändler und dubiose „Personensuchmaschinen“, deren Geschäftsmodell von maximaler Sichtbarkeit in Google abhängt, verlieren Reichweite und damit Einnahmen.
  • Täter, Erpresser und Stalker verlieren einen ihrer wichtigsten Hebel: die extreme Sichtbarkeit ihrer Opfer über den dominierenden Suchdienst.

Gleichzeitig verschiebt sich die Macht: von der offenen Weblandschaft hin zu Google.

Damit das System funktioniert, muss Google eine Art Referenzprofil mit besonders sensiblen Daten – Ausweisnummern, Telefonnummern, E‑Mail‑Adressen – vorhalten und damit sein Suchindex abgleichen. Das verstärkt einen längerfristigen Trend: Wer sich schützen will, muss sich noch enger an genau jene Plattform binden, die ohnehin schon sehr viel über einen weiß.

Für hochgefährdete Personen dürfte der Nutzen überwiegen: Hier ist Nicht‑Nutzung wahrscheinlich riskanter als das zusätzliche Datenteilen. Langfristig droht jedoch ein Lock‑in‑Effekt: Wer nicht im „Schutzkäfig“ des Marktführers ist, ist strukturell benachteiligt. Digitale Sicherheit wird so zur Serviceleistung eines Oligopols – nicht zu einem allgemein durchsetzbaren Recht.

Der größere Kontext

Die Neuerungen fügen sich in mehrere übergeordnete Entwicklungen ein.

1. Industrialisierung von Missbrauch durch KI
Deepfake‑Pornografie und KI‑gestütztes Stalking sind nicht mehr Randphänomene. Mit offenen Modellen und laxer Moderation mancher Plattformen lassen sich heute in Stunden Hunderte kompromittierende Bilder generieren. Klassische Abuse‑Workflows – ein Formular pro Bild, manuelle Prüfung – sind dieser Skalierung hoffnungslos unterlegen.

Googles Möglichkeit, mehrere Bilder in einem Rutsch zu melden, ist eine direkte Reaktion auf dieses neue Volumen. Man könnte es als ersten Versuch verstehen, KI‑missbrauch mit KI‑gestützter Abwehr zu begegnen.

2. Vom „Recht auf Vergessenwerden“ zur Produktfunktion
Der Europäische Gerichtshof hat schon vor Jahren klargemacht: Suchmaschinen sind keine rein neutralen Verzeichnisse, sondern tragen Mitverantwortung für die Verbreitung personenbezogener Daten. Das berühmte „Recht auf Vergessenwerden“ hat Google europaweit gezwungen, Löschanträge zu ermöglichen.

Heute sehen wir die nächste Stufe: Diese rechtliche Pflicht wird in ein globales, plattformweites Feature gegossen – mit Dashboards, Benachrichtigungen und halbautomatischen Scans. Die juristische Ausnahme wird zur Standard‑Produktfunktion.

3. Plattformen als Sicherheitsdienstleister
Ob Meta, X oder TikTok – große Plattformen werden zunehmend daran gemessen, wie gut sie Nutzer:innen vor Betrug, Hassrede, Identitätsdiebstahl und sexualisierter Gewalt schützen. Das ist weniger Freiwilligkeit als Reaktion auf öffentlichen und regulatorischen Druck.

Googles aufgerüstete Schutztools zeigen, dass auch Suchmaschinen diese Rolle übernehmen: von der „Fenster zur Welt“‑Metapher hin zu einer Art personalisierter Sicherheitsbarriere, in der nicht nur Suchergebnisse, sondern auch die Sichtbarkeit der eigenen Person kuratiert wird.

Die europäische und DACH‑Perspektive

Im europäischen Rechtsraum sind diese Funktionen nicht nur nice‑to‑have, sondern Teil eines entstehenden Pflichtprogramms.

Unter der DSGVO sind Ausweisnummern und intime Bilder eindeutig besonders schützenswerte Daten. Nutzer haben schon heute Rechte auf Löschung, Widerspruch und Einschränkung der Verarbeitung. Praktisch scheitert deren Umsetzung jedoch oft an Zersplitterung: Hunderte kleiner Websites, Betreiber im Nicht‑EU‑Ausland, Sprachbarrieren. Google fungiert hier faktisch als „Durchsetzer“ dieser Rechte auf Index‑Ebene.

Der Digital Services Act (DSA) verpflichtet sehr große Online‑Plattformen – darunter Google – zu leicht zugänglichen Meldesystemen und zur Eindämmung systemischer Risiken wie geschlechtsspezifischer Online‑Gewalt. Die vereinfachten Meldewege für Nacktaufnahmen und das proaktive Monitoring lassen sich klar als Antwort auf diese Anforderungen lesen.

Die kommende EU‑KI‑Verordnung wiederum adressiert Deepfakes und verlangt Transparenz sowie Risikomanagement für Hochrisiko‑Anwendungen. Auch wenn die Websuche selbst nur teilweise darunterfällt, sind KI‑generierte sexualisierte Inhalte genau der Problemfall, den Brüssel im Blick hat. Spätestens wenn Google technisch nachweislich in der Lage ist, solche Inhalte zielgenau für Betroffene zu filtern, stellt sich die Frage: Warum nicht generell?

Im DACH‑Raum kommt eine besonders ausgeprägte Datenschutz‑Sensibilität hinzu. Nutzer:innen in Deutschland, Österreich und der Schweiz sind traditionell skeptischer gegenüber zentralen Datensammlungen – gleichzeitig aber stark von Google abhängig. Für die lokale Privacy‑Tech‑Szene in Berlin, München oder Zürich bedeutet das: Entweder man integriert sich als Ergänzung in dieses Ökosystem (z. B. spezialisierte Beratungen, forensische Hilfe, rechtliche Durchsetzung), oder man versucht, echte Alternativen mit geringerer Datenabhängigkeit zu etablieren.

Blick nach vorn

Was ist in den nächsten zwei bis drei Jahren zu erwarten?

1. Von Opt‑in zu Standard‑Schild
Aktuell müssen Nutzer aktiv definieren, welche Daten Google überwachen soll. Auf mittlere Sicht ist vorstellbar, dass der Schutz graduell standardisiert wird: automatische Erkennung typischer Ausweis‑Patterns, intelligente Doxxing‑Erkennung, Schnittstellen zu Passwortmanagern oder „Identitäts‑Wallets“ im Sinne der EU‑Digital‑ID‑Initiativen.

Das wirft neue Fragen auf: Ab wann wird aus zielgerichtetem Schutz eine allgemeine Inhaltsüberwachung? Und wie transparent muss Google darüber informieren?

2. Konfliktfälle und Missbrauch
Jedes Lösch‑ oder Ausblendungswerkzeug kann missbraucht werden. Täter könnten versuchen, Berichterstattung über eigene Straftaten zu unterdrücken. Politische Akteure könnten legitime Kritik entfernen lassen wollen, weil diese personenbezogene Daten enthält.

Hier werden DSA‑Konformität, interne Governance und Beschwerdeverfahren entscheidend. Wir werden mehr Streitfälle an der Schnittstelle von Persönlichkeitsrecht und Pressefreiheit sehen – mit Google in der Rolle des ersten Schiedsrichters.

3. Branchenweiter Angleich
Sobald Google solche Schutzfunktionen sichtbar etabliert, geraten Bing, DuckDuckGo und große soziale Netzwerke unter Zugzwang. Und Regulierer werden die Latte schnell zum Mindeststandard erklären: ähnliche Meldewege, vergleichbare Reaktionszeiten, mehr Transparenzberichte.

Das könnte ironischerweise die Marktmacht der großen Player weiter verstärken: Nur sie können die Compliance‑Kosten und technischen Investitionen in großem Stil schultern. Kleinere europäische Anbieter müssen sich Nischen suchen – oder Allianzen schmieden, etwa über gemeinsame Lösch‑APIs.

Fazit

Googles neue Schutzfunktionen sind gleichzeitig echter Fortschritt und strategische Machtausweitung. Sie erschweren Doxxing und Deepfake‑Missbrauch erheblich, verlangen dafür aber mehr Vertrauen in einen bereits übermächtigen Gatekeeper.

Für akut gefährdete Personen überwiegt der unmittelbare Nutzen. Gesellschaftlich sollten wir uns aber nicht damit zufriedengeben, dass digitale Sicherheit zum „Premium‑Service“ einiger weniger Plattformen verkommt. Wir brauchen robuste Grundrechte, durchsetzbare Standards und Raum für europäische Alternativen.

Die entscheidende Frage lautet: Wollen wir, dass unsere digitale Unversehrtheit primär von den Geschäftsinteressen eines US‑Konzerns abhängt – oder gelingt es Europa, mit Recht, Technik und Marktgestaltung ein eigenständiges Gegengewicht aufzubauen?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.