Meinung des Tages: Sollten Suchmaschinen verpflichtet werden, gemeldete intime Inhalte dauerhaft zu blockieren?
(Bild mit KI erstellt)
Intime Bilder und öffentlicher Schaden
Eine Frau wird Opfer eines Datenklaus: Aus ihrer privaten Cloud gestohlene Nackt- und Sexaufnahmen – teils auch als Deepfakes – tauchen seit 2023 immer wieder im Netz auf. Über die Google-Bildersuche sind die Inhalte in Verbindung mit ihrem Klarnamen auffindbar, obwohl tausende gemeldete Treffer mehrfach ausgelistet wurden.
Die massenhafte Verbreitung führte zu schwerwiegenden Folgen wie Umzug, Jobwechsel und einer diagnostizierten posttraumatischen Belastungsstörung. Unterstützung erhält die Betroffene mittlerweile von HateAid, die Beratung leistet, Suchtreffer meldet und die Klage finanziert. Der Fall zeigt: Einmal online gestellte intime Inhalte lassen sich praktisch nicht mehr vollständig einfangen.
Kern der Klage: Das "Recht auf Vergessenwerden"
Juristisch geht es um die Frage, wie weit das Recht auf Vergessenwerden (Art. 17 DSGVO) bei bildbasierten, hochsensiblen Daten reicht. Die Klägerin verlangt nicht nur die Entfernung gemeldeter URLs, sondern eine dauerhafte, proaktive Auslistung identischer und „kerngleicher“ Inhalte in Web- und Bildersuche – gestützt durch technische Wiedererkennungsverfahren.
Google verweist auf die Komplexität, entfernt gemeldete Treffer, lehnt aber eine generelle Vorab-Filterpflicht für kerngleiche Varianten ab. Experten halten Wiedererkennung identischer Dateien für grundsätzlich machbar. Das Verfahren könnte als Grundsatzfall bis vor den EuGH gehen und Jahre dauern, ist aber in Deutschland eine der ersten Konstellationen dieser Art.
Gesellschaftliche Dimension
Der Streit berührt mehr als Datenschutz: Er steht für „image-based sexual abuse“ (IBSA), die besonders häufig Frauen trifft und durch KI-Deepfakes weiter zunimmt. Kritiker sehen Suchmaschinen in der Mitverantwortung, weil sie Reichweite ermöglichen und indirekt von Zugriffen profitieren. Ohne proaktive Lösungen müssten Betroffene lebenslang nach neuen Uploads fahnden und händisch Löschanträge stellen – eine enorme psychische Belastung.
Parallel fordert HateAid politische Nachschärfungen, etwa klare Strafbarkeit für Herstellung und Verbreitung nicht-einvernehmlicher (auch KI-generierter) Nacktaufnahmen sowie Sperrpflichten gegenüber einschlägigen Angeboten.
Unsere Fragen an Euch:
- Sollten Suchmaschinen verpflichtet werden, gemeldete intime Inhalte dauerhaft zu blockieren?
- Sind die derzeitigen Datenschutzgesetze (DSGVO) Eurer Meinung nach ausreichend, oder braucht es neue Regelungen?
- Sollte es einen Anspruch auf finanzielle Entschädigung geben, wenn Plattformen ihrer Löschpflicht nicht nachkommen?
- Sollten Host-Provider verpflichtet werden, Websites mit Deepfake-Angeboten zu sperren?
Wir freuen uns auf Eure Beiträge.
Viele Grüße
Euer gutefrage Team
65 Stimmen
16 Antworten
Man sollte das nicht ANDEREN zur (unerfüllbaren) Pflicht machen - wenn, dann sollte derjenige, der so was fordert, selbst eine Suchmaschine bauen und betreiben, die das blockiert (Prognose: dieser Versuch wird scheitern).
Die Suchmaschine ist nicht das Problem hier, es wird der falsche Baum angebellt.
Ganz unmöglich also nicht
Zum einen ist der Aufwand extrem, wenn jedes einzelne Bild vorher mit Mustern in einer Datenbank abgeglichen werden muss, zum anderen erkennen KIs nicht wirklich, ob es das selbe Bild ist.
Es würde sehr viele Treffer kommen, die fast identisch sind basierend nach den Merkmalen nach denen die KI sucht, es aber eine völlig andere Person und damit ggf. ein legitimer Inhalt ist!
Nicht unmöglich bedeutet nicht automatisch, dass es gänzlich möglich ist!
BBildererkennung per KI hat Google auch schon
Funktioniert aber nicht so gut, dass man IBSA in diesem Ausmaß was gefordert wird erkennen kann.
Zum einen ist der Aufwand extrem, wenn jedes einzelne Bild vorher mit Mustern in einer Datenbank abgeglichen werden muss,
Wieso jedesmal.
Wenn du eine Googlesuche eingibst, bekommst du nur Daten aus der Datebbank
Dad Internet wird parallel ständig von vielen Google-bots durchsucht
Dabei wird sehr viel analysiert.
Der Bildervergleich findet eh statt für die Bildersuche.
Große Mehraufwand also nicht und keine Verzögerung für die User
zum anderen erkennen KIs nicht wirklich, ob es das selbe Bild ist.
Es werden ähnliche Bilder gefunden, gleiche auch
Google kann schon lange gleiche Bilder auch bei unterschiedlicher Auflösung ... finden
Google kann schon lange gleiche Bilder auch bei unterschiedlicher Auflösung ... finden
Entweder du lässt es nach exakt den gleichen Bildern suchen, dann reichen aber bereits geringfügige Änderungen am Bild (etwas hellere Farbtöne zum Beispiel, oder kaum sichtbare Veränderungen von vielleicht 1% der Pixel irgendwo am Rand) und schon wird das Bild nicht mehr als gleich erkannt.
Oder du lässt es ähnliche Bilder suchen, aber dann trifft es auch Bilder, auf der z. B. nicht die gleiche Person zu sehen ist, sondern vielleicht eine die ähnlich aussieht aber wo der Content gewollt und legal online gestellt wurde.
Auch reden wir hier von Sex-Videos und Deep Fakes. Da kannst du nicht mit der Google Bildersuche ankommen! Das ist ein viel komplexerer Fall!
Viel einfacher wäre es, wenn sie stattdessen die Treffer filtern würden die bei ihrem Klarnamen angezeigt werden. Also, dass dann jeglicher Nudecontent gefiltert wird. Das sollte man mit einer KI handhaben können! Aber damit wird dann auch ein Präzedenzfall geschaffen, wo die Verantwortung von den Menschen wieder auf die Betreiber von Internet-Dienstleistung abgeschoben wird.
Wenn du nicht schwanger werden willst, solltest du nicht auf Antibabypille und Kondome schwören, sondern enthaltsam sein. Und wenn du keine Nacktfotos von dir online sehen willst, dann lass die Klamotten an wenn du das Handy zur Hand nimmst!
Its that simple!!!
Entweder du lässt es nach exakt den gleichen Bildern suchen, dann reichen aber bereits geringfügige Änderungen am Bild (etwas hellere Farbtöne zum Beispiel, oder kaum sichtbare Veränderungen von vielleicht 1% der Pixel irgendwo am Rand) und schon wird das Bild nicht mehr als gleich erkannt.
Falsch.
mit KI erkennt man natürlich solche Änderungen genauso
dann trifft es auch Bilder, auf der z. B. nicht die gleiche Person zu sehen ist,
Genau dass eben nicht
Viel einfacher wäre es, wenn sie stattdessen die Treffer filtern würden die bei ihrem Klarnamen angezeigt werden
Dass ist natürlich nicht möglich.
Der Klarname kann ja ganz einfach geändert werden, bzw ganz verschiedene Bilder können den gleichen Namen haben
mit KI erkennt man natürlich solche Änderungen genauso
Wir leben ja in einer Zeit der KI. Aber auch das scheitert. Siehe Instagram wo es eigentlich einen Bilderkennungsfilter gibt, um Nacktbilder auszusortieren. Dort wird er damit umgangen, dass man zwei Bilder nimmt. Bild A (Nacktbild) Bild B (Katzen Bild) Bild B als Hintergrund setzt und Bild A so Transparent macht, bis man es noch gut genug erkennen kann, aber die Bild-Erkennung nicht mehr.
Wie man sieht, ist es technisch nicht so leicht.
Falsch.
mit KI erkennt man natürlich solche Änderungen genauso
Lieber Gerd, zieh dir mal was an, geh in die nächste Bücherei und leih dir mal Bücher über neuronale Netzwerke etc. aus. Eventuell verstehst du dann wie eine KI funktioniert.
Damit eine KI eine Person zuverlässig erkennen kann, muss sie ein biometrisches Foto zum Abgleich haben. Wenn es immer das selbe Foto ist, könnte man auch sie auch damit zum Abgleichen trainieren.
ABER: Eine KI erkennt nicht wirklich Personen. Sie erkennt Übereinstimmungen in den Parametern und kann basierend darauf eine Wahrscheinlichkeit abgeben. Damit dann Fotos entsprechend gefunden werden, musst du eine prozentuale Mindestübereinstimmung abgeben.
Setzt du dies auf z. B. 100% und änderst du bewusst einige der Parameter geringfügig, so dass es für den Menschen immer noch als die gleiche Person erkennbar ist, würde die KI hier bereits nicht mehr die Person erkennen können. Ist ja nicht mehr die 100%ige Übereinstimmung.
Setzt du die Übereinstimmung runter auf z. B. 95%, wird es viele Bilder betreffender Person richtig erkennen können, es wird aber auch Bilder finden, wo sich 2 Personen ähneln, aber nicht dieselben sind.
Eine KI ist super in der Mustererkennung, aber hier sind Grenzen gesetzt. Es ist immer ein Balanceakt zwischen Wahrscheinlichkeit und Fehlertoleranz!
Dass ist natürlich nicht möglich.
Der Klarname kann ja ganz einfach geändert werden
Eben doch, das wäre der praktische Ansatz. Denn google kann die Fotos nicht entfernen und der Aufwand jedes mal alle Treffer nach entsprechenden Fotos zu filtern ist viel zu aufwändig und fehleranfällig, wie bereits aufgeführt.
ABER es würde kein nudistischer Inhalt mehr kommen, wenn man nach betreffendem Namen sucht. Und genau darum geht es in dem Fall ja scheinbar. Dass bei der Suche nach ihrem Namen Sexvideos von ihr auf Pornoseiten als Treffer angezeigt werden.
Also ein praktikable Lösung für das eigentliche Problem!
Ja. Männer haben schon genug Spaß da dran, "Revenge Porn" (Bilder ohne Einverständnis der Frau) zu verbreiten und konsumieren, mit der Ausrede "tja, hättest du ihm halt nicht erst vertraut und sie ihm geschickt."
Jetzt muss Frau diese nicht mal mehr verschicken, sie werden einfach mit KI erstellt oder gestohlen.
Ist Konsens und Einverständnis wirklich so schwer? Warum muss es gegen Fraus Willen sein? Es gibt genug Frauen die sowas gerne und freiwillig machen.
Und da erwähne ich gar nicht erst die Inhalte die Kinder darstellen..
Aber wie setzt man es den um? Das ist ein reiner Katz und Maus spiel was Google schon jetzt mit den Leuten spielen muss.
Das ist nicht meine Baustelle. Aber es geht hier um den Schutz von Personen, und auch Kindern. Da muss man halt einen Weg finden. Wenn wir immer gleich den Kopf in den Sand stecken wenn etwas schwer umsetzbar ist können wir Fortschritt auch einfach komplett bleiben lassen und zurück in Höhlen gehen.
Das ist nicht meine Baustelle.
Und hier kommt das Problem.
Du hast keine Ahnung wie es funktioniert, wo es Probleme gibt und was möglich ist und welche Folgen welches Handeln hat. Trotzdem willst du etwas fordern. Obwohl du nicht verstehst, was es eigentlich bedeutet.
Wenn wir immer gleich den Kopf in den Sand stecken wenn etwas schwer umsetzbar ist können wir Fortschritt auch einfach komplett bleiben lassen und zurück in Höhlen gehen.
Wer steckt den Sand in den Kopf? Es gibt genug Forscher die auch in Bereich Bilderkennung weiter forschen. Die Technik ist eben nur nicht so weit als das Google das jetzt ein paar Jahren machen könnte. Daher auch mein "Nein, [...]" zu dieser Umfrage, weil es momentan nicht lösbar ist ohne Konsequenzen und Problemen.
So haben Leute auch gedacht als die Gurtpflicht kam. Oder Vergewaltigung in Ehen kriminalisiert wurden. "Aber die Folgen... und Konsequenzen und Probleme die es dadurch geben wird .." ist das wirklich wichtiger?
Vergewaltigung in Ehen kriminalisiert wurden
Du vergleichst gerade Äpfel mit Birnen.
ls die Gurtpflicht kam.
Hier wieder. Die Leute haben nicht gesagt, dass die Gurte nicht funktionieren, sondern dass die Gurte sie in ihrem Leben zu sehr einschränken würden.
Bei dieses System geht es aber darum, dass die Technologie noch nicht funktioniert und nicht, dass sie uns zu sehr einschränkt.
ist das wirklich wichtiger?
Wer Freiheit für Sicherheit aufgibt, verliert am Ende beides.
Das mal vorweg. Ja es ist wichtig, als Beispiel:
Ich: Wir müssen alle Autos verbieten. Benzin und Diesel erzeugt zu viel CO2 und auch Elektroautos wirbeln Feinstaub auf.
Politiker: Ja, aber wie sollen die Leute dann von A nach B kommen? Und was ist mit den Leuten am Land? Oder wie sollen Familien in den Urlaub mit viel Gepäck kommen?
Ich: Ist mir egal, nicht mein Brot, verbieten, und zwar jetzt.
Politiker: Ja, aber das können wir doch jetzt nicht machen. Wir haben doch nicht einmal die Infrastruktur für den öffentlichen Verkehr so weit.
Ich: Das ist nicht wichtig.
Du argumentierst frei nach dem Motto der Zweck heiligt die Mittel.
Leute sind auf Autos angewiesen. Kein Mann ist auf Pornos von Frauen die keinen Konsens geben angewiesen. Es würde niemandem Schaden wenn sie weg wären.
Suchmaschinen, die Großkonzerne, PornHub, was auch immer, geben eine Dreck darauf ob sie Vergewaltigungen oder Kinderpornografie haben. Und genau auf Leuten wie dir ruhen sie sich aus. Denn ihr seid gegen Konsequenzen für diese, weil es nicht möglich sei umzusetzen.
Aber solange es keine Konsequenzen dafür geben wird, wird sich auch keiner die Mühe machen genug Geld (was diese Seiten definitiv haben) darein zu stecken, dass eben eine Lösung gefunden und entwickelt wird. Niemand sagt, es kann auf heute oder morgen funktionieren. Aber wenn keiner einen Grund hat überhaupt daran zu arbeiten, wird nichts passieren. Das ist ein ewiger Kreislauf.
Leute sind auf Autos angewiesen. Kein Mann ist auf Pornos von Frauen die keinen Konsens geben angewiesen. Es würde niemandem Schaden wenn sie weg wären.
Das war ein Beispiel.
Und Leute sind sehr wohl auf Google und dem Internet angewiesen. Jedes Bild muss überprüft, werden sonst kann man ja nicht wissen, wo Problem-Bild liegt.
Denn ihr seid gegen Konsequenzen für diese, weil es nicht möglich sei umzusetzen.
Es "sei" nicht nur unmöglich, sondern zumindest bis heute, IST es unmöglich.
Aber wenn keiner einen Grund hat überhaupt daran zu arbeiten, wird nichts passieren. Das ist ein ewiger Kreislauf.
Herr Gott noch einmal es arbeiten ja schon Leute an Bilderkennung. Es wird dort ja schon geforscht und gemacht. LLMs und Bilderkennungs "KI" ist der heiße Scheiß momentan, nirgendwo sonst wird soviel Geld hineingesteckt als dort. Also wo wird hier nicht geforscht?
Natürlich wird schon getan und gemacht. Und während dies passiert, arbeiten die Männer die Täter sind schon daran, diese zukünftigern eventuellen Lösungen zu umgehen. Es ist offensichtlich, wenn mehr Geld vorhanden ist, mehr Forscher, ist es besser und schneller. Und wenn gerade Hyperreiche wie Google gezwungen wären, ihren finanziellen Teil beizutragen es immense Fortschritte geben würde. Und man muss schneller sein. Definitiv. Aber wenn man diese machen lässt wie man will. Bleibt es halt genauso wie es ist.
Wo forscht Google nicht?
Hier ist einer der Forschungs-Seiten von Google: https://research.google/research-areas/#foundational-ml-algorithms-1/
Genau dort wird ja auch von Google geforscht,
Offenbar ist bei manchen der Sexualtrieb eben doch so ausgeprägt, dass sie sich darauf angewiesen fühlen.
Nein, nur bedingt. Google zeigt nur Webseiten an und hostet den Inhalt nur bedingt.
Daher haben Google, als auch die Webseiten beide in gewisser Weise Verantwortung.
Aber trotzdem ändert das nichts daran, dass es bis her technisch nicht möglich ist.
Nun wie funktioniert es das ein System weiß das Bild A und Bild B die gleichen Bilder sind?
Da gibt es jetzt mehrere Methoden, eine von diesen wäre zum Beispiel der Hash-Abgleich. Dort Kalkuliert man anhand von komplexen Mathematischen-Formeln einen langen String bzw. Zeichenkette. Nun sollte sich nur ein Pixel des Bildes ändern ist die gesamte Zeichenkette komplett anders. Somit nicht effektiv.
Jetzt kann man natürlich sagen man vergleicht das Bild von der Frau mit dem Original Bit für Bit. Nun einerseits hat man dasselbe Problem wie oben. Ändert man ein Pixel funktioniert es nicht mehr. Und dann kommt noch hinzu das Google auf einmal bei ihren Rechenzentren einsehbare IBSA-Bilder und Videos hat. Ist auch keine gute Lösung.
Dann könnte man sagen man versucht es mit Bild-Erkennung. Wir leben ja in einer Zeit der KI. Aber auch das scheitert. Siehe Instagram wo es eigentlich einen Bilderkennungsfilter gibt, um Nacktbilder auszusortieren. Dort wird er damit umgangen, dass man zwei Bilder nimmt. Bild A (Nacktbild) Bild B (Katzen Bild) Bild B als Hintergrund setzt und Bild A so Transparent macht, bis man es noch gut genug erkennen kann, aber die Bild-Erkennung nicht mehr.
Die Bild-Erkennung ist noch nicht einmal ansatzweise so weit, dass es wirklich funktioniert.
Wie man sieht, ist es technisch nicht so leicht.
Und Leute sind sehr wohl auf Google und dem Internet angewiesen. Jedes Bild muss überprüft, werden sonst kann man ja nicht wissen, wo Problem-Bild liegt.
Falsch, niemand ist auf Google Suchmaschineangewiesen
Es gibt viele andere auch.
Und nur weil Google zensiert, erscheinen die Bilder ja immer noch auf der Website.
Jeder könnte weiter such auf die illegalen Bilder zugreifen.
Durch Google wird ja keine Website offline oder online geschaltet
Das Thema hat nichts mit Frauen oder Männern zu tun.
Trifft genauso umgekehrt.
Ist Konsens und Einverständnis wirklich so schwer?
Es geht hier um gestohlene Bilder.
Dort kann niemand sein Einverständnis geben.
Genauso wie bei Mobbing im Netzt
Keine Ahnung was der Sexismus hier soll. Generell ist das doch ein Problem was beide Geschlechter betrifft und auch über sexuelle Inhalte hinaus geht. In genannten Fall sind zudem die Daten aus einer Cloud abgeflossen, also hat es nichts mit "Revenge Porn" zu tun.
Das kann nicht Pflicht werden, da es ein völlig absurdes Unterfangen ist: Man kann bekannte Bilder ganz gut wiedererkennen - es gibt entsprechende umfangreiche Datenbanken zum Beispiel mit Kinderpornografie: https://www.ndr.de/nachrichten/niedersachsen/Kinderpornos-Kuenstliche-Intelligenz-hilft-Polizei,kinderpornografie182.html
ABER: Bei KI-Deepfakes ist man völlig machtlos. Diese sind ja eben nicht von echten Bildern zu unterscheiden. Und es müssen auch keine sexualisierten Darstellungen sein. Zum Mobbing reichen ja schon normale Urlaubsbilder mit gefakten Partnern.
das wird nie Weltweit funktionieren, entschließt sich ein Anbieter freiwollig, nun dann wird er danach handeln, wird es Pflicht, wechselt dieser einfach den Firmensitz und dann bleibt man an der Grenze schimpfend stehen, denke da nur an die vielen schmutzigen Bildchen zu Sex und Gewalt usw.
allerdings hat China da Filter eingebaut, die durchaus bestimmte Inhalte sperren, also Landesweit könnte dies schon erfolgen, von staatlicher Seite her...
allerdings hat China da Filter eingebaut, die durchaus bestimmte Inhalte sperren, also Landesweit könnte dies schon erfolgen, von staatlicher Seite her...
Das Ganze ist halt auf der Basis von Bilderkennung und funktioniert nicht wirklich. Der Hauptgrund warum das nur wenige ausnutzen ist vermutlich der Fakt, dass China denjenigen dann irgendwo in ein Arbeitslager steckt.
das nicht unbedingt, aber dort hat der Staat die Kontrolle über das Internet und da ist halt Schluss mit lustig bzw. mit der Demokratie...
Google entfernt solche Inhalte auf Anfrage bereits aus den Suchergebnissen. Dafür, dass die gleichen (oder ähnliche) Inhalte immer wieder auf anderen Seiten hochgeladen werden, kann Google ja nichts. Ähnliche Inhalte zuverlässig zu erkennen ist nicht trivial, es würde immer Fehler geben, sowohl False Positives als auch False Negatives.
Selbst wenn es technisch fehlerfrei möglich wäre, würden nie im Leben alle Suchmaschinen das Gesetz einhalten und die Filterung umsetzen. Dann findet man die Inhalte eben nicht mehr mit Google, aber dafür mit Yandex (russische Suchmaschine) o.ä.
Webseitenbetreiber sind bereits zur Löschung verpflichtet (Recht am eigenen Bild). Dass stattdessen Suchmaschinen in die Verantwortung genommen werden, liegt nur daran, dass sich nicht alle Webseitenbetreiber kooperativ verhalten. Die Annahme, alle Suchmaschinen würden das tun, ist schon sehr naiv.
Als Nutzer sollte man immer davon ausgehen, dass das Internet nichts vergisst. Seine eigenen Sexfilmchen in eine Cloud hochzuladen ist schon extrem dämlich...
BBildererkennung per KI hat Google auch schon
Ganz unmöglich also nicht
Allerdings wenn Bilder nur von Google entfernt sind, hilft das garnicht.
Auf der Website sind sie immer noch und jeder kann die Website ja trotzdem auffinden
Auserdem gibts viele Suchmaschinen
Google ist nur dir meist genutzt in Deutschland
Wenn solche Typen das Wissen, nutzen sie einfach andere Suchmaschirnen