Wenn das EU „chatcontrol“ Gesetz beschlossen werden würde, wäre die Threema App sicher oder wären p2p Apps besser?

Die Frage stellt sich mir hier was jetzt umgesetzt wurde. Client-Side-Scanning, End-to-End Encryption verbot/gebrochene E2EE oder auch nur halbe E2EE.

Und wäre es illegal wenn z.b. über mein Handy weitergegeben werden würde, weil p2p? Z.b. bei der App „Keet“ für iOS?

Nein. Wobei sich das immer wieder ändern kann.

Am besten dran wirst du mit einem Gerät sein was gut Side-Loading erlaubt. Also Apple/iOS fällt schon mal weg.

Dann solltest du noch eine Custom ROM darauf spielen, wo kein Google installiert ist. (Da auch dies das Einfallstor sein kann).
Es gibt momentan zwei Hersteller, die das so gut erlauben. Das wäre einmal Google mit dem Google Pixel und Fairphone. Beide Hersteller erlauben custom ROMS/OSs und unterstützen einen locked Bootloader.

Ich würde mit einem Google Pixel 8 (oder höher) ansetzten und dort ein GraphenOS installieren OHNE Google Play.
Dann brauchst du möglichst dezentrale und P2P Messenger, da würde ich SimpleX und Briar nutzen. Beide sind dezentral und je nachdem P2P. Briar ist da noch etwas „paranoider“ als SimpleX.

Und schreibt mir gerne eure Meinung zu dem Gesetz.
  • Schützt nicht
  • Gefährdung für die Allgemeinheit
  • Sicherheitsrisiko
  • Untergrabung der Demokratie
  • Nur Fachidioten oder Laien würde zu so etwas ja sagen.
...zur Antwort
  • Tuta -> Tuta (immer verschlüsselt)
  • Tuta -> anderer Provider (sofern ein Key Exchange von euch stattgefunden hat und ihr beide die jeweiligen Schlüssel eingetragen habt und die Verschlüsselung, dann aktiviert habt, ja. Standard: Nein)
  • anderer Provider -> Tuta (sofern ein Key Exchange von euch stattgefunden hat und ihr beide die jeweiligen Schlüssel eingetragen habt und die Verschlüsselung, dann aktiviert habt, ja. Standard: Nein)
...zur Antwort

Ich bevorzuge immer zufällig generierte Nutzernamen:

  • Blushie2345
  • Balance4809
  • Coffee1861
  • usw
...zur Antwort
Nein

Ich nutze GraphenOS, wo eine FDE (Full Disk Encryption) oder in diesem Fall eher FDE (Full Device Encryption) von Haus aus Standard ist und aktiv ist. Auch in den moderneren Smartphones (egal ob iOS oder Android) ist meist eine FDE schon aktiv.

Das Ziel ist es hier sich nicht vor Frauen zu schützen, sondern vor jegliches Angreifen die da rein wollen. Sei es ein Taschendieb (wäre ja schlecht, wenn dieser dann man Bank Zugangsdaten lesen könnte) oder auch Behörden in nicht so demokratischen Ländern.

...zur Antwort

Ich würde mal sagen Grok 4 Heavy oder ChatGPT 5 Pro

...zur Antwort

Wenn er raucht? Sofort den Stecker ziehen und je nachem das defekte Teil oder das gesamte Gerät ersetzten/in die Mülltonne hauen.

Wenn er nur zu heiß wird? Lüfter checken, Von Staub Reinigen, Checken was zu heiß wird.

...zur Antwort

Was hätte hier eine Deportation gebracht?

Dann hätte dieser Mann irgendwo jemanden anders getötet, also wo ist die Deportation eine dauerhafte und langfristig gedachte Lösung?

Abgesehen davon was soll den die Behörde tun, wenn man nicht weiß, wo er ist? Alle Polizisten vom derzeitigen Dienst nehmen und nach dem Mann suchen lassen nur, weil er nicht zu finden ist (vor dem Totschlag).

Ja es gehört definitv was verbessert, aber was Elon Musk hier wieder schreibt ist halt viel zu simpel und einfach gedacht, als das es nahe an der Lösung sein könnte.

https://www.ndr.de/nachrichten/niedersachsen/braunschweig_harz_goettingen/tod-von-liana-k-in-friedland-eine-chronologie-des-falls,friedland-144.html

...zur Antwort
Nein wir haben alles Unterkontrolle und wissen was wir tun.

Die Vorstellung, dass LLMs jemals ein Bewusstsein erlangen werden, offenbart ein grundlegendes Missverständnis dessen, was sowohl Intelligenz als auch Bewusstsein ist. Man wird niemals ein Bewusstsein aus einem Binärcode aufbauen können, und das Gehirn ist kein Computer. Das Gehirn als Hardware für die Software des Geistes zu bezeichnen, ist eine nette Metapher, um einige Konzepte leichter zu begreifen, aber so funktioniert das Gehirn nicht.

Und man kann keine Intelligenz ohne Bewusstsein haben. Intelligenz ist eine Leistung/Fähigkeit der Kognition, die neben der Empfindung einer der beiden Teile des Bewusstseins ist, nicht umgekehrt. Man kann nicht etwas schaffen, das kein Bewusstsein hat, aber intelligent ist, und dann so viel davon schaffen, dass es empfindungsfähig wird, sonst hätten Ameisen und Würmer kein Bewusstsein.

Man kann auch nicht etwas bewusst machen, ohne es zu spüren. Dinge werden nicht „so intelligent, dass sie Bewusstsein erlangen“. So funktioniert das nicht. Buchstäblich jedes Ding, das jemals von einem Bewusstsein zu einem Bewusstsein gelangt ist, war so dumm wie ein unbelebtes Objekt, z. B. ein neugeborenes Baby.

...zur Antwort

Gibt es so nicht

Alternative:

  • Obsidian
  • Notesnook
  • Jopplin
  • Cryptee
  • Standard Notes

Alle diese sind E2EE oder local first Optionen mit Markdown support.

...zur Antwort
Damit hab ich gerechnet
  • Berufe verschwinden
  • Neue Berufe entstehen
  • Gewissen Berufe bleiben bestehen

Das war schon immer so und die Menschheit ist auch nicht untergegangen.

...zur Antwort
Meinung des Tages: Sollten Suchmaschinen verpflichtet werden, gemeldete intime Inhalte dauerhaft zu blockieren?

(Bild mit KI erstellt)

Intime Bilder und öffentlicher Schaden

Eine Frau wird Opfer eines Datenklaus: Aus ihrer privaten Cloud gestohlene Nackt- und Sexaufnahmen – teils auch als Deepfakes – tauchen seit 2023 immer wieder im Netz auf. Über die Google-Bildersuche sind die Inhalte in Verbindung mit ihrem Klarnamen auffindbar, obwohl tausende gemeldete Treffer mehrfach ausgelistet wurden.

Die massenhafte Verbreitung führte zu schwerwiegenden Folgen wie Umzug, Jobwechsel und einer diagnostizierten posttraumatischen Belastungsstörung. Unterstützung erhält die Betroffene mittlerweile von HateAid, die Beratung leistet, Suchtreffer meldet und die Klage finanziert. Der Fall zeigt: Einmal online gestellte intime Inhalte lassen sich praktisch nicht mehr vollständig einfangen.

Kern der Klage: Das "Recht auf Vergessenwerden"

Juristisch geht es um die Frage, wie weit das Recht auf Vergessenwerden (Art. 17 DSGVO) bei bildbasierten, hochsensiblen Daten reicht. Die Klägerin verlangt nicht nur die Entfernung gemeldeter URLs, sondern eine dauerhafte, proaktive Auslistung identischer und „kerngleicher“ Inhalte in Web- und Bildersuche – gestützt durch technische Wiedererkennungsverfahren.

Google verweist auf die Komplexität, entfernt gemeldete Treffer, lehnt aber eine generelle Vorab-Filterpflicht für kerngleiche Varianten ab. Experten halten Wiedererkennung identischer Dateien für grundsätzlich machbar. Das Verfahren könnte als Grundsatzfall bis vor den EuGH gehen und Jahre dauern, ist aber in Deutschland eine der ersten Konstellationen dieser Art.

Gesellschaftliche Dimension

Der Streit berührt mehr als Datenschutz: Er steht für „image-based sexual abuse“ (IBSA), die besonders häufig Frauen trifft und durch KI-Deepfakes weiter zunimmt. Kritiker sehen Suchmaschinen in der Mitverantwortung, weil sie Reichweite ermöglichen und indirekt von Zugriffen profitieren. Ohne proaktive Lösungen müssten Betroffene lebenslang nach neuen Uploads fahnden und händisch Löschanträge stellen – eine enorme psychische Belastung.

Parallel fordert HateAid politische Nachschärfungen, etwa klare Strafbarkeit für Herstellung und Verbreitung nicht-einvernehmlicher (auch KI-generierter) Nacktaufnahmen sowie Sperrpflichten gegenüber einschlägigen Angeboten.

Unsere Fragen an Euch:

  • Sollten Suchmaschinen verpflichtet werden, gemeldete intime Inhalte dauerhaft zu blockieren?
  • Sind die derzeitigen Datenschutzgesetze (DSGVO) Eurer Meinung nach ausreichend, oder braucht es neue Regelungen?
  • Sollte es einen Anspruch auf finanzielle Entschädigung geben, wenn Plattformen ihrer Löschpflicht nicht nachkommen?
  • Sollten Host-Provider verpflichtet werden, Websites mit Deepfake-Angeboten zu sperren?

Wir freuen uns auf Eure Beiträge.

Viele Grüße

Euer gutefrage Team

...zum Beitrag
Nein, das sollte nicht zur Pflicht werden, weil...

Nein, da es technisch sehr schwierig wird und es generell Google eh schon mit allem zu lange dauert.

Warum ist es technisch zu schwierig?
Nun wie funktioniert es das ein System weiß das Bild A und Bild B die gleichen Bilder sind?

Da gibt es jetzt mehrere Methoden, eine von diesen wäre zum Beispiel der Hash-Abgleich. Dort Kalkuliert man anhand von komplexen Mathematischen-Formeln einen langen String bzw. Zeichenkette. Nun sollte sich nur ein Pixel des Bildes ändern ist die gesamte Zeichenkette komplett anders. Somit nicht effektiv.

Jetzt kann man natürlich sagen man vergleicht das Bild von der Frau mit dem Original Bit für Bit. Nun einerseits hat man dasselbe Problem wie oben. Ändert man ein Pixel funktioniert es nicht mehr. Und dann kommt noch hinzu das Google auf einmal bei ihren Rechenzentren einsehbare IBSA-Bilder und Videos hat. Ist auch keine gute Lösung.

Dann könnte man sagen man versucht es mit Bild-Erkennung. Wir leben ja in einer Zeit der KI. Aber auch das scheitert. Siehe Instagram wo es eigentlich einen Bilderkennungsfilter gibt, um Nacktbilder auszusortieren. Dort wird er damit umgangen, dass man zwei Bilder nimmt. Bild A (Nacktbild) Bild B (Katzen Bild) Bild B als Hintergrund setzt und Bild A so Transparent macht, bis man es noch gut genug erkennen kann, aber die Bild-Erkennung nicht mehr.

Wie man sieht, ist es technisch nicht so leicht.

...zur Antwort

Das kann man dir so nicht ganz sagen. Es kommt drauf an welche Plugins das sind, was auf dem Server gemacht wird und wo die Leute sind.

Also Faust Regel: 4-8GB Ram braucht man fast immer und NIE MEHR als 12GB Ram.
Durch den beschissenen Garbage Collector von Java verbrauchst du immer mehr RAM wie mehr du ihm gibst, obwohl du diesen gar nicht brauchst. Sprich ab einem gewissen Zeitpunkt schmeißt du RAM aus dem Fenster.

Am besten würde ich dir hier Purpur oder Folia (je nachdem welche CPU du hast) empfehlen und die beiden gründlich optimieren, zusätzlich natürlich auch die Aikari Start-Up Flags und Plugins möglichst auch optimieren.

...zur Antwort