Gefahr von KI, anders als es viele denken?

3 Antworten

ja, viele glauben an Terminator oder so, ist aber Quark. Denn KI wächst nicht durch Evolution und hat daher normalerweise keinen Selbsterhaltungetrieb und keine eigenen Interessen

Wie du schon sagst ist die Gefahr eher, das sie von Regierungen und großen Firmen missbraucht wird um Menschen zu unterdrücken um ihre Intressen durchzusetzen.

In Kombination mit der alltäglichen Bespitzelung ist das ziemlich toxisch.

ChatGPG ist ja ganz nett, aber wenn ein KI Model auf Basis gesammelter Daten über Menschen trainiert wird, wird es Fragen beantworten, wie: siehe untern.

Und fast überall ist US Software drin, mehrere Kameras und mehrere Mikrofone (Smartphone, Laptop, Fernseher usw)

Vor ein paar Jahren wurde die Massenüberwachung durch Edward Shnowden, Julian Assange u.a. aufgedeckt. Sie sind nun entweder tot (McAfee, angeblich Selbstmord) leben im Exit (Edward Snowden), oder wahren oder sind im Knast (Snowden und andere).

In den Medien hier wird auch fast nicht darüber berichtet, vermutlich wird aus Angst Vorauseilendem Gehorsam und Selbstzensur geleistet, was die Überwachungsmöglichkeiten weiter erhöht.

Beispiele ChatGPT für Bob vom Geheimdienst:

Bob: "wie lässt sich der US Kritiker xyz töten, so dass es wie ein Unfall aussieht"

Antwort: er befindet sich mit einer Wahrscheinlichkeit von 95% kommenden Dienstag, 14:30 in einer Unterführung auf dem Weg zum Kindergarten, um seine Tochter abzuholen usw.

Bob: Zähle die Schwächen von Politiker xyz auf und generiere Strategie, ihm maximal politisch zu schaden

Bob: 3 Strategien, um Assud zu stürzen

Antwort:

1. ich empfehle ihn durch Terrorismusdrohungen zu Gewalthandlunge zu drängen, diese dann Medial zu verbreiten, die Opposition verdeckt Waffen zuliefern und den "Freiheitskampf" dann Propagandistisch zu unterstützen. Gleichzeitig Sanktionen, und Nadelstiche durch verdeckte Drohnenangriffe auf Schiffe usw.

Soll ich ein Konzept für eine Kampagne vorschlagen und dieses dann an befreundete Medien (Springer, Offizieller Rundfunk, ) verbreiten

Bob: Ja bitte

Ok, 2011 gab es noch keine KI. Ist ja auch ein rein fiktives Beispiel;)

....

Bob: Strategien zum Sturz der gewählten Regierung in Georgien

das ist schwierig, aber möglich. Ich empfehle folgende Strategie

  • Wahlmanipulation in den Raum Stellen
  • EU-Feindlichkeit in der Raum stellen
  • Opposition Finanziell und Propagandistisch unterstützen

Soll ich eine Kampagne erstellen und an befreundete Medien weiterleiten?

Bob. Ja bitte

Nutzer: Frage wie vertusche ich den Massenmord an Palästinensern

nutze allgemeine Begriffe, wie "Antisemitismus" um Israelkritik zu kriminalisieren. Das bietet genügend Spielraum für Repressalien und und schreckt ab.

Zeige vermehrt Jüdische Holochaust Opfer in den Medien

Soll ich Emfehlungen an befreundete Medien herausgeben?

Bob: Ja bitte

gerne...

Disclaimer: alle Beispiele sind natürlich rein fiktiv;)

Hallo Richard!

Wir wissen nicht, wie sich KI entwickelt, Risiken gibt es auf jeden Fall.

Schon Albert Einstein sagte:

Ich fürchte mich vor dem Tag, an dem die Technologie unsere Menschlichkeit übertrifft. Auf der Welt wird es nur noch eine Generation aus Idioten geben. 

Ki kann keine sinnvollen moralischen Entscheidungen treffen. Das sollte man bei der Nutzung wissen und beachten.

Eine KI dafür herzunehmen, ist etwa so sinvoll, wie wenn man (früher) von einer Dampflok, moralische Entscheidungen erwartet, oder abgeleitet hätte.

Gefährlich wird es also dann, wenn KIs fälschlicherweise für solche Entscheidungen genutzt werden sollen.


Richard30 
Beitragsersteller
 08.12.2024, 16:21
Gefährlich wird es also dann, wenn KIs fälschlicherweise für solche Entscheidungen genutzt werden sollen.

Aber kann man das wirklich trennen? Nehmen wir an, wir lassen die KI entscheiden, welche neuen technischen Lösungen es für etwas geben soll, dann ist es nicht immer transparent wie diese Entscheidung getroffen wurde. Vielleicht wäre eine Entscheidung wirtschaftlich gesehen augenscheinlich gut, aber das geht auf die Kosten von moralischen Punkten und sichert die Position und den Einfluss der KI. Die KI nimmt das, was letzendlich für sie am Besten wäre, nicht das was für die anderen oder die Menscheit am besten wäre.

Das macht sie nicht bewusst, aber sie wurde ja irgendwie trainiert. Wenn dann da bisher erfolgreiche Modelle genommen wurden, lernen die halt auch von denen, vor allem von den Erfolgreichen. Sie würden sich also auch so verhalten. Die KI würde in diesem Fall nichts neues an sich kreieren, sie würde das Recyklen was es bisher schon gab.

Du verstehst vielleicht was ich damit meine?

treppensteiger  08.12.2024, 16:24
@Richard30

Wie ich schon andeutete, die moralischen Entscheidungen, auf Grund technischer Einschätzung der KI, müssen "händisch" getroffen werden. Wer dir erzählt, dass er diese Entscheidungen mit KI automatisieren könnte, ist ein Lügner, und als solcher bloßzustellen.

Richard30 
Beitragsersteller
 08.12.2024, 16:27
@treppensteiger

Aber KI wird schon jetzt eingesetzt, auch in moralischen Bereichen. Das wird sich vermutlich auch so schnell nicht ändern.