Wie gefährlich kann KI in Kombination mit Deepfake in den falschen Händen sein?
Ich hab vorhin ein Song gehört der komplett von einer KI gemacht wurde. Also Text, flow und so von dem macher und die KI nur die Stimme vom echten Künstler drauf gemacht. Und man merkt es 0. Es wirkt wie ein echter Song von ihm. Aber wenn das geht, kann man auch jede Person alles sagen lassen was mann will, dass noch in Kombination mit deepfake (die auch immer krasser werden) ist krank gefährlich. Man könnte zum Beispiel Biden einfach sagen lassen "wir starten den dritten Weltkrieg gegen Russland und China" und es würde sich wie ein Lauffeuer verbreiten. Und wenn dann nicht schnell genug ein dementi veröffentlicht wird, oder zum Beispiel Putin einen nervösen Moment hat und auf den Knopf drückt (bzw er und der andere den Schlüssel umdrehen, weil er nicht alleine irgendwas losschicken kann). Dann ist einfach Ende.
Aber es muss nicht mal das sein, stell dir vor der ex Partner macht sowas und lässt dich keine Ahnung was sagen oder so und postet das überall, dann ist die Privatperson einfach dauerhaft geschädigt weil die meisten das glauben oder denken dass ist echt. Vorallem bei Frauen kann das schlimm sein wenn man das Gesicht auf irgendwelche random nackten Frauen packt. Und dann wird man überall damit konfrontiert von irgendwelchen Idioten. Also KI/AI kann zwar geil und lustig sein aber es kann auch sau gefährlich sein.
Jetzt die Frage:
Wie warscheinlich ist es das sowas in Zukunft wirklich passiert? Bei Privatpersonen warscheinlich leider öfter, aber ist es etwas worüber man sich wirklich Gedanken machen muss?
2 Antworten
Definitiv. Das ganze wird auch früher oder später von allen Staaten als illegal erklärt und die Zugriffe auf KI Apps und KI Programme werden wohl stark eingeschränkt werden.
Es ist nur noch die Frage "Wann" und nicht "Ob" etwas passieren wird.
So oder so... ich hoffe, dass wir aus der Möglichkeit "KI" das bestmögliche herausholen und keine kacke fabrizieren!
Das Problem ist man kann nicht jedem der das sieht sagen dass es ein deepfake ist, weil man nicht weiß wer es alles gesehen hat. Und dann gibt es da draußen ein Haufen Menschen die einen vermeintlich nackt gesehen haben. Die interessiert es nicht ob es ein Fake ist oder nicht.
Da hast du auch wieder recht. Da bleibt einem dann aber nichts anderes übrig als sich nicht darüber aufzuregen (damit gibt man den Leuten nämlich ordentlich Zunder...) und es zu akzeptieren.... es löschen oder ungeschehen machen klappt ja nicht. Man kann die Person anzeigen aber ob da dann was juristisch passiert ist die andere Frage.
Es ist nicht nur sehr wahrscheinlich, sondern unvermeidlich. Die Gesellschaft wird sich darauf einstellen müssen dass keine Bild- oder Tondokumente als definitive Beweise angesehen werden können. Ich denke dass das dazu führen wird dass der Stellenwert von Zeugenaussagen und Vertrauen auf die Integrität einer Quelle in Zukunft höher bewertet werden wird.
Das ist ein großes Problem wenn man sich nicht mal mehr auf "Beweise" vertrauen kann. Nichtmal auf eine Videobotschaft eines Präsidenten. Damit muss man eigentlich schon davon ausgehen, dass jede Audio die man hört, jedes Video oder Foto dass man sieht fake ist. Diese können sich durch social Media noch schneller verbreiten. Man kann quasi nichts vertrauen, und das spielt den Verschwörungstheoretikern in die Karten. Auch weil die selbst sowas erstellen können und es für sich nutzen können. Eine Welt wo man sich nur noch auf das was man Life mit eigenen Augen und Ohren sieht und hört verlassen kann wird nicht lange gutgehen. Weil jeder paranoid wird. Oder alles blind glaubt.
Es wird noch viel stärker als heute schon darum gehen, aus welchen Quellen eine Meldung kommt. Das tut man aber doch schon heute zum großen Teilen. Selbst wenn man grundsätzlich den Medien gegenüber kritisch ist, muss man sowieso für sich selber entscheiden welchen Quellen man mehr, und welchen man weniger vertraut.
Das eine ist ja das mit der politischen Komponente, aber was ich fast schon kritischer sehe ist halt was gegen Privatpersonen gemacht wird. Man bekommt ja so Geschichten mit, dass der Ex-partner die nudes die im Vertrauen gesendet wurden oder direkt mit dem Handy gemacht wurden nach der Trennung dann auf einmal online sind. Deshalb würde ich auch nie welche machen geschweige denn verschicken. Wobei ich als Typ deutlich weniger betroffen bin als eine Frau. Sowas Passiert also eh schon, und jetzt braucht der Ex nochnicht mal mehr solche Fotos sondern kann das Gesicht einfach auf solche Fotos und Videos draufmachen, und das so dass man nicht mehr erkennt dass es fake ist. Da kann die Privatperson halt sehr wenig gegen machen und das finde ich fast schon schlimmer. Auch weil das häufiger passiert bzw passieren könnte.