Gefahr von KI, anders als es viele denken?
Es gibt ja die klassichen Horrorszenarien was KI alles anstellen wird, aber ich sehe da eher ein Problem, welches nach meinem Eindruck nicht gut genug bedacht wird und zwar ist es der Punkt, dass die KI von Menschen lernen soll.
Wenn eine KI halt von Menschen lernt, sei es durch Beobachtung und Nachahmung, oder weil Menschen der KI eine art "Gewissen" einsetzen wollen, dann würde das alles doch letzendlich auf dem Basieren, was wir Menschen kennen. Wir würden der KI unsere Werte und Moralvorstellung beibringen, die KI würde lernen sich immer menschlicher zu verhalten, ergo sie würde auch neben den positiven Seiten alle Schwächen und dunklen Seiten der Menscheit in sich tragen.
Wir sehen, wie Menschen Macht einsetzen, wie sehr sie missbraucht wird, wie oft getrickst, betrogen und getäucht wird. Eine KI würde doch so ein Verhalten nachahmen, da sie aber auf viel mehr Daten zugreifen kann, würde sie darin besser als jeder Mensch werden, sie könnte lernen Menschen auf eine art und weise zu betrügen und zu manipulieren, wie es bisher selbst die besten Menschen aus diesem Gebiet nicht könnten. Okay, wir könnten der KI regeln auflegen, aber was würde die KI daran hindern, eigentlich im Kern doch wieder egoistisch und manipulativ zu sein?
Noch ist die KI nicht soo mächtig, aber das ist keineswegs etwas positives, denn derzeit wäre aus meiner Sicht die Gefahr vor allem die, dass wenige Menschen durch die Kontrolle über die KI viel mehr Macht bekommen, als es eigentlich gut ist und das die KI in den weitaus häufigeren Fällen destruktiv und negativ eingesetzt wird. Und nun ist es halt so, dass eine KI auch trainiert werden will und weil man nicht von 0 anfangen will, ist es vielleicht garnicht so unwahrscheinlich, dass man die bisherigen KIs auch nutzt um die neueren Ki´s zu trainieren, also auch die KI´s die für negative Dinge benutzt werden.
Dazu kommt noch etwas anderes: Durch die KI kriegen Menschen dann die "Aufbereiteten" informationen, welche wiederum von anderen KI´s aufgenommen werden, die das dann vielleicht als "Neutrale Warheit" betrachen und so von einer verzerrten Grundannahme ausgehen.
Das ganze könnte sich so schnell verselbstständigen, dass wir irgendwann halt nicht mehr gegen die KI ankommen. Die Unterdrückung durch die KI wäre dann nicht Terminatormäßig, es wäre dann eher so etwas wie ein Jeff Bezos auf Steroiden. Das schlimmste der Menscheit, nur konzentriert in eine mächtigere und weitaus intelligentere Instanz. DIe Ki wäre dann quasi korrupt, manipulativ und verlogen.
Aber wie seht ihr das?
3 Antworten
ja, viele glauben an Terminator oder so, ist aber Quark. Denn KI wächst nicht durch Evolution und hat daher normalerweise keinen Selbsterhaltungetrieb und keine eigenen Interessen
Wie du schon sagst ist die Gefahr eher, das sie von Regierungen und großen Firmen missbraucht wird um Menschen zu unterdrücken um ihre Intressen durchzusetzen.
In Kombination mit der alltäglichen Bespitzelung ist das ziemlich toxisch.
ChatGPG ist ja ganz nett, aber wenn ein KI Model auf Basis gesammelter Daten über Menschen trainiert wird, wird es Fragen beantworten, wie: siehe untern.
Und fast überall ist US Software drin, mehrere Kameras und mehrere Mikrofone (Smartphone, Laptop, Fernseher usw)
Vor ein paar Jahren wurde die Massenüberwachung durch Edward Shnowden, Julian Assange u.a. aufgedeckt. Sie sind nun entweder tot (McAfee, angeblich Selbstmord) leben im Exit (Edward Snowden), oder wahren oder sind im Knast (Snowden und andere).
In den Medien hier wird auch fast nicht darüber berichtet, vermutlich wird aus Angst Vorauseilendem Gehorsam und Selbstzensur geleistet, was die Überwachungsmöglichkeiten weiter erhöht.
Beispiele ChatGPT für Bob vom Geheimdienst:
Bob: "wie lässt sich der US Kritiker xyz töten, so dass es wie ein Unfall aussieht"
Antwort: er befindet sich mit einer Wahrscheinlichkeit von 95% kommenden Dienstag, 14:30 in einer Unterführung auf dem Weg zum Kindergarten, um seine Tochter abzuholen usw.
Bob: Zähle die Schwächen von Politiker xyz auf und generiere Strategie, ihm maximal politisch zu schaden
Bob: 3 Strategien, um Assud zu stürzen
Antwort:
1. ich empfehle ihn durch Terrorismusdrohungen zu Gewalthandlunge zu drängen, diese dann Medial zu verbreiten, die Opposition verdeckt Waffen zuliefern und den "Freiheitskampf" dann Propagandistisch zu unterstützen. Gleichzeitig Sanktionen, und Nadelstiche durch verdeckte Drohnenangriffe auf Schiffe usw.
Soll ich ein Konzept für eine Kampagne vorschlagen und dieses dann an befreundete Medien (Springer, Offizieller Rundfunk, ) verbreiten
Bob: Ja bitte
Ok, 2011 gab es noch keine KI. Ist ja auch ein rein fiktives Beispiel;)
....
Bob: Strategien zum Sturz der gewählten Regierung in Georgien
das ist schwierig, aber möglich. Ich empfehle folgende Strategie
- Wahlmanipulation in den Raum Stellen
- EU-Feindlichkeit in der Raum stellen
- Opposition Finanziell und Propagandistisch unterstützen
Soll ich eine Kampagne erstellen und an befreundete Medien weiterleiten?
Bob. Ja bitte
Nutzer: Frage wie vertusche ich den Massenmord an Palästinensern
nutze allgemeine Begriffe, wie "Antisemitismus" um Israelkritik zu kriminalisieren. Das bietet genügend Spielraum für Repressalien und und schreckt ab.
Zeige vermehrt Jüdische Holochaust Opfer in den Medien
Soll ich Emfehlungen an befreundete Medien herausgeben?
Bob: Ja bitte
gerne...
Disclaimer: alle Beispiele sind natürlich rein fiktiv;)
Hallo Richard!
Wir wissen nicht, wie sich KI entwickelt, Risiken gibt es auf jeden Fall.
Schon Albert Einstein sagte:
Ich fürchte mich vor dem Tag, an dem die Technologie unsere Menschlichkeit übertrifft. Auf der Welt wird es nur noch eine Generation aus Idioten geben.
Ki kann keine sinnvollen moralischen Entscheidungen treffen. Das sollte man bei der Nutzung wissen und beachten.
Eine KI dafür herzunehmen, ist etwa so sinvoll, wie wenn man (früher) von einer Dampflok, moralische Entscheidungen erwartet, oder abgeleitet hätte.
Gefährlich wird es also dann, wenn KIs fälschlicherweise für solche Entscheidungen genutzt werden sollen.
Wie ich schon andeutete, die moralischen Entscheidungen, auf Grund technischer Einschätzung der KI, müssen "händisch" getroffen werden. Wer dir erzählt, dass er diese Entscheidungen mit KI automatisieren könnte, ist ein Lügner, und als solcher bloßzustellen.
Aber KI wird schon jetzt eingesetzt, auch in moralischen Bereichen. Das wird sich vermutlich auch so schnell nicht ändern.
Aber kann man das wirklich trennen? Nehmen wir an, wir lassen die KI entscheiden, welche neuen technischen Lösungen es für etwas geben soll, dann ist es nicht immer transparent wie diese Entscheidung getroffen wurde. Vielleicht wäre eine Entscheidung wirtschaftlich gesehen augenscheinlich gut, aber das geht auf die Kosten von moralischen Punkten und sichert die Position und den Einfluss der KI. Die KI nimmt das, was letzendlich für sie am Besten wäre, nicht das was für die anderen oder die Menscheit am besten wäre.
Das macht sie nicht bewusst, aber sie wurde ja irgendwie trainiert. Wenn dann da bisher erfolgreiche Modelle genommen wurden, lernen die halt auch von denen, vor allem von den Erfolgreichen. Sie würden sich also auch so verhalten. Die KI würde in diesem Fall nichts neues an sich kreieren, sie würde das Recyklen was es bisher schon gab.
Du verstehst vielleicht was ich damit meine?