Meinung des Tages: Sollten Suchmaschinen verpflichtet werden, gemeldete intime Inhalte dauerhaft zu blockieren?

Ja, Suchmaschinen sollten dazu verpflichtet werden, da... 52%
Nein, das sollte nicht zur Pflicht werden, weil... 37%
Andere Meinung und zwar... 11%

65 Stimmen

16 Antworten

Nein, das sollte nicht zur Pflicht werden, weil...

Man sollte das nicht ANDEREN zur (unerfüllbaren) Pflicht machen - wenn, dann sollte derjenige, der so was fordert, selbst eine Suchmaschine bauen und betreiben, die das blockiert (Prognose: dieser Versuch wird scheitern).

Die Suchmaschine ist nicht das Problem hier, es wird der falsche Baum angebellt.


NackterGerd  03.09.2025, 13:46
Prognose: dieser Versuch wird scheitern).

BBildererkennung per KI hat Google auch schon

Ganz unmöglich also nicht

Allerdings wenn Bilder nur von Google entfernt sind, hilft das garnicht.

Auf der Website sind sie immer noch und jeder kann die Website ja trotzdem auffinden

Auserdem gibts viele Suchmaschinen

Google ist nur dir meist genutzt in Deutschland

Wenn solche Typen das Wissen, nutzen sie einfach andere Suchmaschirnen

GuteAntwort2021  03.09.2025, 14:07
@NackterGerd
Ganz unmöglich also nicht

Zum einen ist der Aufwand extrem, wenn jedes einzelne Bild vorher mit Mustern in einer Datenbank abgeglichen werden muss, zum anderen erkennen KIs nicht wirklich, ob es das selbe Bild ist.

Es würde sehr viele Treffer kommen, die fast identisch sind basierend nach den Merkmalen nach denen die KI sucht, es aber eine völlig andere Person und damit ggf. ein legitimer Inhalt ist!

Nicht unmöglich bedeutet nicht automatisch, dass es gänzlich möglich ist!

Written5423  03.09.2025, 14:10
@GuteAntwort2021
BBildererkennung per KI hat Google auch schon

Funktioniert aber nicht so gut, dass man IBSA in diesem Ausmaß was gefordert wird erkennen kann.

NackterGerd  03.09.2025, 22:04
@GuteAntwort2021
Zum einen ist der Aufwand extrem, wenn jedes einzelne Bild vorher mit Mustern in einer Datenbank abgeglichen werden muss,

Wieso jedesmal.

Wenn du eine Googlesuche eingibst, bekommst du nur Daten aus der Datebbank

Dad Internet wird parallel ständig von vielen Google-bots durchsucht

Dabei wird sehr viel analysiert.

Der Bildervergleich findet eh statt für die Bildersuche.

Große Mehraufwand also nicht und keine Verzögerung für die User

zum anderen erkennen KIs nicht wirklich, ob es das selbe Bild ist.

Es werden ähnliche Bilder gefunden, gleiche auch

Google kann schon lange gleiche Bilder auch bei unterschiedlicher Auflösung ... finden

GuteAntwort2021  03.09.2025, 22:55
@NackterGerd
Google kann schon lange gleiche Bilder auch bei unterschiedlicher Auflösung ... finden

Entweder du lässt es nach exakt den gleichen Bildern suchen, dann reichen aber bereits geringfügige Änderungen am Bild (etwas hellere Farbtöne zum Beispiel, oder kaum sichtbare Veränderungen von vielleicht 1% der Pixel irgendwo am Rand) und schon wird das Bild nicht mehr als gleich erkannt.

Oder du lässt es ähnliche Bilder suchen, aber dann trifft es auch Bilder, auf der z. B. nicht die gleiche Person zu sehen ist, sondern vielleicht eine die ähnlich aussieht aber wo der Content gewollt und legal online gestellt wurde.

Auch reden wir hier von Sex-Videos und Deep Fakes. Da kannst du nicht mit der Google Bildersuche ankommen! Das ist ein viel komplexerer Fall!

Viel einfacher wäre es, wenn sie stattdessen die Treffer filtern würden die bei ihrem Klarnamen angezeigt werden. Also, dass dann jeglicher Nudecontent gefiltert wird. Das sollte man mit einer KI handhaben können! Aber damit wird dann auch ein Präzedenzfall geschaffen, wo die Verantwortung von den Menschen wieder auf die Betreiber von Internet-Dienstleistung abgeschoben wird.

Wenn du nicht schwanger werden willst, solltest du nicht auf Antibabypille und Kondome schwören, sondern enthaltsam sein. Und wenn du keine Nacktfotos von dir online sehen willst, dann lass die Klamotten an wenn du das Handy zur Hand nimmst!

Its that simple!!!

NackterGerd  04.09.2025, 08:54
@GuteAntwort2021
Entweder du lässt es nach exakt den gleichen Bildern suchen, dann reichen aber bereits geringfügige Änderungen am Bild (etwas hellere Farbtöne zum Beispiel, oder kaum sichtbare Veränderungen von vielleicht 1% der Pixel irgendwo am Rand) und schon wird das Bild nicht mehr als gleich erkannt.

Falsch.

mit KI erkennt man natürlich solche Änderungen genauso

dann trifft es auch Bilder, auf der z. B. nicht die gleiche Person zu sehen ist,

Genau dass eben nicht

Viel einfacher wäre es, wenn sie stattdessen die Treffer filtern würden die bei ihrem Klarnamen angezeigt werden

Dass ist natürlich nicht möglich.

Der Klarname kann ja ganz einfach geändert werden, bzw ganz verschiedene Bilder können den gleichen Namen haben

Written5423  04.09.2025, 16:27
@NackterGerd
mit KI erkennt man natürlich solche Änderungen genauso

Wir leben ja in einer Zeit der KI. Aber auch das scheitert. Siehe Instagram wo es eigentlich einen Bilderkennungsfilter gibt, um Nacktbilder auszusortieren. Dort wird er damit umgangen, dass man zwei Bilder nimmt. Bild A (Nacktbild) Bild B (Katzen Bild) Bild B als Hintergrund setzt und Bild A so Transparent macht, bis man es noch gut genug erkennen kann, aber die Bild-Erkennung nicht mehr.

Wie man sieht, ist es technisch nicht so leicht.

GuteAntwort2021  04.09.2025, 17:17
@NackterGerd
Falsch.
mit KI erkennt man natürlich solche Änderungen genauso

Lieber Gerd, zieh dir mal was an, geh in die nächste Bücherei und leih dir mal Bücher über neuronale Netzwerke etc. aus. Eventuell verstehst du dann wie eine KI funktioniert.

Damit eine KI eine Person zuverlässig erkennen kann, muss sie ein biometrisches Foto zum Abgleich haben. Wenn es immer das selbe Foto ist, könnte man auch sie auch damit zum Abgleichen trainieren.

ABER: Eine KI erkennt nicht wirklich Personen. Sie erkennt Übereinstimmungen in den Parametern und kann basierend darauf eine Wahrscheinlichkeit abgeben. Damit dann Fotos entsprechend gefunden werden, musst du eine prozentuale Mindestübereinstimmung abgeben.

Setzt du dies auf z. B. 100% und änderst du bewusst einige der Parameter geringfügig, so dass es für den Menschen immer noch als die gleiche Person erkennbar ist, würde die KI hier bereits nicht mehr die Person erkennen können. Ist ja nicht mehr die 100%ige Übereinstimmung.

Setzt du die Übereinstimmung runter auf z. B. 95%, wird es viele Bilder betreffender Person richtig erkennen können, es wird aber auch Bilder finden, wo sich 2 Personen ähneln, aber nicht dieselben sind.

Eine KI ist super in der Mustererkennung, aber hier sind Grenzen gesetzt. Es ist immer ein Balanceakt zwischen Wahrscheinlichkeit und Fehlertoleranz!

Dass ist natürlich nicht möglich.
Der Klarname kann ja ganz einfach geändert werden

Eben doch, das wäre der praktische Ansatz. Denn google kann die Fotos nicht entfernen und der Aufwand jedes mal alle Treffer nach entsprechenden Fotos zu filtern ist viel zu aufwändig und fehleranfällig, wie bereits aufgeführt.

ABER es würde kein nudistischer Inhalt mehr kommen, wenn man nach betreffendem Namen sucht. Und genau darum geht es in dem Fall ja scheinbar. Dass bei der Suche nach ihrem Namen Sexvideos von ihr auf Pornoseiten als Treffer angezeigt werden.

Also ein praktikable Lösung für das eigentliche Problem!

Ja, Suchmaschinen sollten dazu verpflichtet werden, da...

Ja. Männer haben schon genug Spaß da dran, "Revenge Porn" (Bilder ohne Einverständnis der Frau) zu verbreiten und konsumieren, mit der Ausrede "tja, hättest du ihm halt nicht erst vertraut und sie ihm geschickt."

Jetzt muss Frau diese nicht mal mehr verschicken, sie werden einfach mit KI erstellt oder gestohlen.

Ist Konsens und Einverständnis wirklich so schwer? Warum muss es gegen Fraus Willen sein? Es gibt genug Frauen die sowas gerne und freiwillig machen.

Und da erwähne ich gar nicht erst die Inhalte die Kinder darstellen..


Written5423  03.09.2025, 11:12

Aber wie setzt man es den um? Das ist ein reiner Katz und Maus spiel was Google schon jetzt mit den Leuten spielen muss.

BrauchHilfe237  03.09.2025, 11:19
@Written5423

Das ist nicht meine Baustelle. Aber es geht hier um den Schutz von Personen, und auch Kindern. Da muss man halt einen Weg finden. Wenn wir immer gleich den Kopf in den Sand stecken wenn etwas schwer umsetzbar ist können wir Fortschritt auch einfach komplett bleiben lassen und zurück in Höhlen gehen.

Written5423  03.09.2025, 11:28
@BrauchHilfe237
Das ist nicht meine Baustelle.

Und hier kommt das Problem.
Du hast keine Ahnung wie es funktioniert, wo es Probleme gibt und was möglich ist und welche Folgen welches Handeln hat. Trotzdem willst du etwas fordern. Obwohl du nicht verstehst, was es eigentlich bedeutet.

Wenn wir immer gleich den Kopf in den Sand stecken wenn etwas schwer umsetzbar ist können wir Fortschritt auch einfach komplett bleiben lassen und zurück in Höhlen gehen.

Wer steckt den Sand in den Kopf? Es gibt genug Forscher die auch in Bereich Bilderkennung weiter forschen. Die Technik ist eben nur nicht so weit als das Google das jetzt ein paar Jahren machen könnte. Daher auch mein "Nein, [...]" zu dieser Umfrage, weil es momentan nicht lösbar ist ohne Konsequenzen und Problemen.

BrauchHilfe237  03.09.2025, 11:31
@Written5423

So haben Leute auch gedacht als die Gurtpflicht kam. Oder Vergewaltigung in Ehen kriminalisiert wurden. "Aber die Folgen... und Konsequenzen und Probleme die es dadurch geben wird .." ist das wirklich wichtiger?

Written5423  03.09.2025, 11:39
@BrauchHilfe237
Vergewaltigung in Ehen kriminalisiert wurden

Du vergleichst gerade Äpfel mit Birnen.

ls die Gurtpflicht kam.

Hier wieder. Die Leute haben nicht gesagt, dass die Gurte nicht funktionieren, sondern dass die Gurte sie in ihrem Leben zu sehr einschränken würden.

Bei dieses System geht es aber darum, dass die Technologie noch nicht funktioniert und nicht, dass sie uns zu sehr einschränkt.

ist das wirklich wichtiger?

Wer Freiheit für Sicherheit aufgibt, verliert am Ende beides.

Das mal vorweg. Ja es ist wichtig, als Beispiel:

Ich: Wir müssen alle Autos verbieten. Benzin und Diesel erzeugt zu viel CO2 und auch Elektroautos wirbeln Feinstaub auf.
Politiker: Ja, aber wie sollen die Leute dann von A nach B kommen? Und was ist mit den Leuten am Land? Oder wie sollen Familien in den Urlaub mit viel Gepäck kommen?
Ich: Ist mir egal, nicht mein Brot, verbieten, und zwar jetzt.
Politiker: Ja, aber das können wir doch jetzt nicht machen. Wir haben doch nicht einmal die Infrastruktur für den öffentlichen Verkehr so weit.
Ich: Das ist nicht wichtig.

Du argumentierst frei nach dem Motto der Zweck heiligt die Mittel.

BrauchHilfe237  03.09.2025, 11:47
@Written5423

Leute sind auf Autos angewiesen. Kein Mann ist auf Pornos von Frauen die keinen Konsens geben angewiesen. Es würde niemandem Schaden wenn sie weg wären.

Suchmaschinen, die Großkonzerne, PornHub, was auch immer, geben eine Dreck darauf ob sie Vergewaltigungen oder Kinderpornografie haben. Und genau auf Leuten wie dir ruhen sie sich aus. Denn ihr seid gegen Konsequenzen für diese, weil es nicht möglich sei umzusetzen.

Aber solange es keine Konsequenzen dafür geben wird, wird sich auch keiner die Mühe machen genug Geld (was diese Seiten definitiv haben) darein zu stecken, dass eben eine Lösung gefunden und entwickelt wird. Niemand sagt, es kann auf heute oder morgen funktionieren. Aber wenn keiner einen Grund hat überhaupt daran zu arbeiten, wird nichts passieren. Das ist ein ewiger Kreislauf.

Written5423  03.09.2025, 11:59
@BrauchHilfe237
Leute sind auf Autos angewiesen. Kein Mann ist auf Pornos von Frauen die keinen Konsens geben angewiesen. Es würde niemandem Schaden wenn sie weg wären.

Das war ein Beispiel.
Und Leute sind sehr wohl auf Google und dem Internet angewiesen. Jedes Bild muss überprüft, werden sonst kann man ja nicht wissen, wo Problem-Bild liegt.

Denn ihr seid gegen Konsequenzen für diese, weil es nicht möglich sei umzusetzen.

Es "sei" nicht nur unmöglich, sondern zumindest bis heute, IST es unmöglich.

Aber wenn keiner einen Grund hat überhaupt daran zu arbeiten, wird nichts passieren. Das ist ein ewiger Kreislauf.

Herr Gott noch einmal es arbeiten ja schon Leute an Bilderkennung. Es wird dort ja schon geforscht und gemacht. LLMs und Bilderkennungs "KI" ist der heiße Scheiß momentan, nirgendwo sonst wird soviel Geld hineingesteckt als dort. Also wo wird hier nicht geforscht?

BrauchHilfe237  03.09.2025, 12:15
@Written5423

Natürlich wird schon getan und gemacht. Und während dies passiert, arbeiten die Männer die Täter sind schon daran, diese zukünftigern eventuellen Lösungen zu umgehen. Es ist offensichtlich, wenn mehr Geld vorhanden ist, mehr Forscher, ist es besser und schneller. Und wenn gerade Hyperreiche wie Google gezwungen wären, ihren finanziellen Teil beizutragen es immense Fortschritte geben würde. Und man muss schneller sein. Definitiv. Aber wenn man diese machen lässt wie man will. Bleibt es halt genauso wie es ist.

Hurtz351  03.09.2025, 12:30
@BrauchHilfe237

Offenbar ist bei manchen der Sexualtrieb eben doch so ausgeprägt, dass sie sich darauf angewiesen fühlen.

Written5423  03.09.2025, 12:34
@Hurtz351

Nein, nur bedingt. Google zeigt nur Webseiten an und hostet den Inhalt nur bedingt.

Daher haben Google, als auch die Webseiten beide in gewisser Weise Verantwortung.

Aber trotzdem ändert das nichts daran, dass es bis her technisch nicht möglich ist.

Written5423  03.09.2025, 12:38
@Hurtz351

Nun wie funktioniert es das ein System weiß das Bild A und Bild B die gleichen Bilder sind?

Da gibt es jetzt mehrere Methoden, eine von diesen wäre zum Beispiel der Hash-Abgleich. Dort Kalkuliert man anhand von komplexen Mathematischen-Formeln einen langen String bzw. Zeichenkette. Nun sollte sich nur ein Pixel des Bildes ändern ist die gesamte Zeichenkette komplett anders. Somit nicht effektiv.

Jetzt kann man natürlich sagen man vergleicht das Bild von der Frau mit dem Original Bit für Bit. Nun einerseits hat man dasselbe Problem wie oben. Ändert man ein Pixel funktioniert es nicht mehr. Und dann kommt noch hinzu das Google auf einmal bei ihren Rechenzentren einsehbare IBSA-Bilder und Videos hat. Ist auch keine gute Lösung.

Dann könnte man sagen man versucht es mit Bild-Erkennung. Wir leben ja in einer Zeit der KI. Aber auch das scheitert. Siehe Instagram wo es eigentlich einen Bilderkennungsfilter gibt, um Nacktbilder auszusortieren. Dort wird er damit umgangen, dass man zwei Bilder nimmt. Bild A (Nacktbild) Bild B (Katzen Bild) Bild B als Hintergrund setzt und Bild A so Transparent macht, bis man es noch gut genug erkennen kann, aber die Bild-Erkennung nicht mehr.
Die Bild-Erkennung ist noch nicht einmal ansatzweise so weit, dass es wirklich funktioniert.

Wie man sieht, ist es technisch nicht so leicht.

NackterGerd  04.09.2025, 09:07
@Written5423
Und Leute sind sehr wohl auf Google und dem Internet angewiesen. Jedes Bild muss überprüft, werden sonst kann man ja nicht wissen, wo Problem-Bild liegt.

Falsch, niemand ist auf Google Suchmaschineangewiesen

Es gibt viele andere auch.

Und nur weil Google zensiert, erscheinen die Bilder ja immer noch auf der Website.

Jeder könnte weiter such auf die illegalen Bilder zugreifen.

Durch Google wird ja keine Website offline oder online geschaltet

NackterGerd  04.09.2025, 08:59

Das Thema hat nichts mit Frauen oder Männern zu tun.

Trifft genauso umgekehrt.

Ist Konsens und Einverständnis wirklich so schwer?

Es geht hier um gestohlene Bilder.

Dort kann niemand sein Einverständnis geben.

Genauso wie bei Mobbing im Netzt

MrRayman  03.09.2025, 16:55

Keine Ahnung was der Sexismus hier soll. Generell ist das doch ein Problem was beide Geschlechter betrifft und auch über sexuelle Inhalte hinaus geht. In genannten Fall sind zudem die Daten aus einer Cloud abgeflossen, also hat es nichts mit "Revenge Porn" zu tun.

Nein, das sollte nicht zur Pflicht werden, weil...

Das kann nicht Pflicht werden, da es ein völlig absurdes Unterfangen ist: Man kann bekannte Bilder ganz gut wiedererkennen - es gibt entsprechende umfangreiche Datenbanken zum Beispiel mit Kinderpornografie: https://www.ndr.de/nachrichten/niedersachsen/Kinderpornos-Kuenstliche-Intelligenz-hilft-Polizei,kinderpornografie182.html

ABER: Bei KI-Deepfakes ist man völlig machtlos. Diese sind ja eben nicht von echten Bildern zu unterscheiden. Und es müssen auch keine sexualisierten Darstellungen sein. Zum Mobbing reichen ja schon normale Urlaubsbilder mit gefakten Partnern.

Nein, das sollte nicht zur Pflicht werden, weil...

das wird nie Weltweit funktionieren, entschließt sich ein Anbieter freiwollig, nun dann wird er danach handeln, wird es Pflicht, wechselt dieser einfach den Firmensitz und dann bleibt man an der Grenze schimpfend stehen, denke da nur an die vielen schmutzigen Bildchen zu Sex und Gewalt usw.

allerdings hat China da Filter eingebaut, die durchaus bestimmte Inhalte sperren, also Landesweit könnte dies schon erfolgen, von staatlicher Seite her...


Written5423  03.09.2025, 11:11
allerdings hat China da Filter eingebaut, die durchaus bestimmte Inhalte sperren, also Landesweit könnte dies schon erfolgen, von staatlicher Seite her...

Das Ganze ist halt auf der Basis von Bilderkennung und funktioniert nicht wirklich. Der Hauptgrund warum das nur wenige ausnutzen ist vermutlich der Fakt, dass China denjenigen dann irgendwo in ein Arbeitslager steckt.

buddl1358  03.09.2025, 11:16
@Written5423

das nicht unbedingt, aber dort hat der Staat die Kontrolle über das Internet und da ist halt Schluss mit lustig bzw. mit der Demokratie...

Andere Meinung und zwar...

Google entfernt solche Inhalte auf Anfrage bereits aus den Suchergebnissen. Dafür, dass die gleichen (oder ähnliche) Inhalte immer wieder auf anderen Seiten hochgeladen werden, kann Google ja nichts. Ähnliche Inhalte zuverlässig zu erkennen ist nicht trivial, es würde immer Fehler geben, sowohl False Positives als auch False Negatives.

Selbst wenn es technisch fehlerfrei möglich wäre, würden nie im Leben alle Suchmaschinen das Gesetz einhalten und die Filterung umsetzen. Dann findet man die Inhalte eben nicht mehr mit Google, aber dafür mit Yandex (russische Suchmaschine) o.ä.

Webseitenbetreiber sind bereits zur Löschung verpflichtet (Recht am eigenen Bild). Dass stattdessen Suchmaschinen in die Verantwortung genommen werden, liegt nur daran, dass sich nicht alle Webseitenbetreiber kooperativ verhalten. Die Annahme, alle Suchmaschinen würden das tun, ist schon sehr naiv.

Als Nutzer sollte man immer davon ausgehen, dass das Internet nichts vergisst. Seine eigenen Sexfilmchen in eine Cloud hochzuladen ist schon extrem dämlich...

Woher ich das weiß:Studium / Ausbildung – Ich studiere Informatik