Meinung des Tages: Sollten Suchmaschinen verpflichtet werden, gemeldete intime Inhalte dauerhaft zu blockieren?
(Bild mit KI erstellt)
Intime Bilder und öffentlicher Schaden
Eine Frau wird Opfer eines Datenklaus: Aus ihrer privaten Cloud gestohlene Nackt- und Sexaufnahmen – teils auch als Deepfakes – tauchen seit 2023 immer wieder im Netz auf. Über die Google-Bildersuche sind die Inhalte in Verbindung mit ihrem Klarnamen auffindbar, obwohl tausende gemeldete Treffer mehrfach ausgelistet wurden.
Die massenhafte Verbreitung führte zu schwerwiegenden Folgen wie Umzug, Jobwechsel und einer diagnostizierten posttraumatischen Belastungsstörung. Unterstützung erhält die Betroffene mittlerweile von HateAid, die Beratung leistet, Suchtreffer meldet und die Klage finanziert. Der Fall zeigt: Einmal online gestellte intime Inhalte lassen sich praktisch nicht mehr vollständig einfangen.
Kern der Klage: Das "Recht auf Vergessenwerden"
Juristisch geht es um die Frage, wie weit das Recht auf Vergessenwerden (Art. 17 DSGVO) bei bildbasierten, hochsensiblen Daten reicht. Die Klägerin verlangt nicht nur die Entfernung gemeldeter URLs, sondern eine dauerhafte, proaktive Auslistung identischer und „kerngleicher“ Inhalte in Web- und Bildersuche – gestützt durch technische Wiedererkennungsverfahren.
Google verweist auf die Komplexität, entfernt gemeldete Treffer, lehnt aber eine generelle Vorab-Filterpflicht für kerngleiche Varianten ab. Experten halten Wiedererkennung identischer Dateien für grundsätzlich machbar. Das Verfahren könnte als Grundsatzfall bis vor den EuGH gehen und Jahre dauern, ist aber in Deutschland eine der ersten Konstellationen dieser Art.
Gesellschaftliche Dimension
Der Streit berührt mehr als Datenschutz: Er steht für „image-based sexual abuse“ (IBSA), die besonders häufig Frauen trifft und durch KI-Deepfakes weiter zunimmt. Kritiker sehen Suchmaschinen in der Mitverantwortung, weil sie Reichweite ermöglichen und indirekt von Zugriffen profitieren. Ohne proaktive Lösungen müssten Betroffene lebenslang nach neuen Uploads fahnden und händisch Löschanträge stellen – eine enorme psychische Belastung.
Parallel fordert HateAid politische Nachschärfungen, etwa klare Strafbarkeit für Herstellung und Verbreitung nicht-einvernehmlicher (auch KI-generierter) Nacktaufnahmen sowie Sperrpflichten gegenüber einschlägigen Angeboten.
Unsere Fragen an Euch:
- Sollten Suchmaschinen verpflichtet werden, gemeldete intime Inhalte dauerhaft zu blockieren?
- Sind die derzeitigen Datenschutzgesetze (DSGVO) Eurer Meinung nach ausreichend, oder braucht es neue Regelungen?
- Sollte es einen Anspruch auf finanzielle Entschädigung geben, wenn Plattformen ihrer Löschpflicht nicht nachkommen?
- Sollten Host-Provider verpflichtet werden, Websites mit Deepfake-Angeboten zu sperren?
Wir freuen uns auf Eure Beiträge.
Viele Grüße
Euer gutefrage Team
