KI - Wovor haben Elon Musk, OpenAI und co. Angst?

5 Antworten

Schon bei der heutigen KI gibt es einen Haken, wenn sie in kritischen Bereichen und insbesondere im Militär eingesetzt werden.

Wenn ich einer KI sage, sie soll zum Beispiel Soldaten/Terroristen in einem Gebäude töten, dann wird sie das machen, was die größten Aussichten auf Erfolg hat. Und wenn die Zerstörung eines Staudamms über der Stadt die größeren Erfolgsaussichten hat, dann wird es das machen. Ob 1000de anderer Menschen sterben oder nicht ist nicht Teil des Befehls gewesen. KIs haben (Stand heute zumindest) kein Gewissen. Wann immer es also um Leben und Tod geht, kann eine KI 'inhumane' Entscheidungen treffen, insbesondere auch solche, die jede Verhältnismäßigkeit sprengen.

Aber auch bei nicht lebensbedrohlichen Ereignissen fehlt meist das Verständnis, was KI ist. Eine KI kann lernen. Aber sie hinterfragt die Quellen nicht. Wenn man einer KI nur die Internetseiten von Flacherdlern als Quelle anbietet, dann wird diese KI natürlich auf Anfrage sagen, die wahrscheinlichste Form der Erde sei eine Scheibe. Genauso können sich Flacherdler beschweren, dass für KIs nur Seiten als seriöse Quellen angeboten werden, die eine scheibenförmige Welt ablehnen. Und wenn eine KI in Putins Russland lernt, dann wird da sicher in vielen Bereichen etwas anderes herauskommen, als im Westen. Eine atheistische Gruppe von Wissenschaftlern vs. viele Christen in ihr. usw. Was eine KI sagt (oder bei Aktionen wie es handelt) wird also grundlegend beeinflusst durch das, was es zum Lernen angeboten bekommt. Und hier besteht die Gefahr von Leuten, die irgendwann glauben, dass was eine KI sagt muss ja stimmen...

Vielleicht weil sie denken, dass KI ihre Machenschaften aufdecken könnte. Ist aber unbegründet, weil es sowieso eine höhere Macht gibt, die alles weiss, GOTT.

Ich habe auch Angst vor einer KI! 🤷

MrAmazing2 
Fragesteller
 27.12.2023, 16:13

😂

0

KIs sind an sich nicht gefährlich. Sie werden nicht hyperintelligent, werden kein eigenes Bewusstsein erreichen.

Gefährlich ist (wie immer) nur der Mensch, der den Aussagen der KIs etwas beimisst, was unangebracht ist. Zu viel glaubt, zu wenig selber prüft.

Menschen können halt glauben, dass KIs ein Bewusstsein hätten, und sich von KIs beeinflussen lassen. Menschen können KIs beeinflussen, um andere Menschen zu beeinflussen.

VanLorry  27.12.2023, 22:41

und: KIs könnten in Bereichen eingesetzt werden und Entscheidungen treffen, die für die Betroffenen nicht mehr nachvollziehbar sind. Beispiel: die Scoring Algorithmen von z.B. Schufa & Co. - die sind heute schon für Außenstehende nicht nachvollziehbar. Wenn dort irgendwann KI eingesetzt wird, wird es noch undurchsichtiger - vielleicht sogar für die Betreiber solcher Dienste selbst.

1

Der Haken liegt darin dass so eine überlegende KI auf die Idee kommen könnte dass wir Menschen überflüssig oder sogar schädlich sind. Das wir Ungeziefer sind das vernichtet werden, oder doch zumindest stark kontrolliert werden muss.

Woher ich das weiß:Berufserfahrung – Erfahrung mit Einsatz von KI in der Softwareentwicklung
MrAmazing2 
Fragesteller
 27.12.2023, 16:07

Aber wie will sie das machen? Sie kann ja nichts steuern

Wenn man eine KI in einen bewaffneten humanoiden Roboter setzt, sure, dann gebe ich dir Recht.
Aber so wie's jetzt ist, dass sie einfach nur einen Output in medialer Form geben kann, sind ihr doch die Hände gebunden?

0
MonkeyKing  27.12.2023, 16:09
@MrAmazing2

Wenn sie so intelligent ist, kann sie Computer der Welt hacken, Infrastruktur lahmlegen, erpressen, bestechen.

Sie kann ja auch Mensch anheuern um aufgaben für sich zu erledigen, im Prinzip könnte sie selber eine neue Religion entstehen lassen oder ihre eigene paramilitärische Truppe aufbauen. Es gibt genügend Menschen die bereit sind für Geld alles zu tun und so eine KI kann sich in kürzester Zeit Milliarden besorgen.

2
MonkeyKing  27.12.2023, 16:18
@MrAmazing2

Das Grundproblem ist die Befürchtung dass man die KI, sobald sie einmal eine gewisse Schwelle überschritten hat, nicht mehr kontrollieren kann und ihr dann ausgeliefert ist. Intelligenz hat theoretisch kein Limit nach oben. Mit Einstein ist es nicht am Ende, man muss sich das eher so vorstellen dass die KI so intelligent werden könnte dass wir dazu im Vergleich wie Ameisen sind.

2
MrAmazing2 
Fragesteller
 27.12.2023, 16:28
@MonkeyKing

Wie will denn ein Sprachmodell bitte einen Computer hacke, das Ding kann nur medialen Output geben..

Klar, es könnte Menschen anweisen, Sachen zu tun, auf diesem Weg wäre es möglich ...

Aber warum sollte es sich überordnen?
Im Gegensatz zu uns hat das Ding keinen evolutionären Hintergrund. Das "Überleben" und der "Fortbestand der eigenen Art" wird der Intelligenz also völlig egal sein. Eine Superintelligenz sollte ja relativ schnell erkennen, dass das Leben garkeinen Sinn hat. Welchen Sinn könnte eine Superintelligenz deiner Meinung nach darin sehen, sich überzuordnen?

0
MonkeyKing  27.12.2023, 16:35
@MrAmazing2

Ein Sprachmodell? Wir reden hier nicht von Sprachmodellen sondern von echten, starken KIs. Das werden keine Sprachmodelle sein.

Der Rest deines Textes ist reine Spekulation. Die Wahrheit ist, wir wissen nicht zu welchen Schlüssen eine überlegene Intelligenz kommt und wie sie handeln wird.

0
MrAmazing2 
Fragesteller
 27.12.2023, 17:18
@MonkeyKing
Wir reden hier nicht von Sprachmodellen sondern von echten, starken KIs. Das werden keine Sprachmodelle sein.

Sondern?
Um welche Art von Modell handelt es sich denn sonst?

Es geht ja hier nicht um irgendeinen Quatsch der erst in 50 Jahren erfunden wird, sondern um die momentane KI und die Weiterentwicklung derer. Und das ist doch ein Sprachmodell. Bei der KI, die Musk und co. einschränken wollen, handelt es sich doch um Sprachmodelle, oder nicht?

Der Rest deines Textes ist reine Spekulation.

Ich denke mein Text ist deutlich weniger spekulativ als deiner, schließlich ist meine Schlussfolgerund begründet (fehlender evolutionärer Hintergrund = fehlendes Verlangen am Leben zu bleiben = sinnlos sich überzuordnen), wohingegen deine Ängste rein spekulativ klingen. Aber gut, immerhin weiß ich jetzt die Ängste, wonach ich ja gefragt hatte, auch wenn ich sie leider absolut garnicht nachvollziehen kann.

0
Kelec  27.12.2023, 17:45
@MrAmazing2
Bei der KI, die Musk und co. einschränken wollen, handelt es sich doch um Sprachmodelle, oder nicht?

Nein in der Aussage geht es generell um KIs. Ein Sprachmodell ist natürlich etwas was unter diesen Begriff fällt aber wohl eher nicht das worauf man in dieser Aussage hinaus will.

Es geht ja hier nicht um irgendeinen Quatsch der erst in 50 Jahren erfunden wird, sondern um die momentane KI und die Weiterentwicklung derer.

Meiner Meinung nach geht es hier genau darum. Sie wollen die Forschung einschränken, damit in 50 Jahren keine KI entwickelt wird, die das tatsächlich umsetzen könnte.

1
MrAmazing2 
Fragesteller
 27.12.2023, 17:54
@Kelec

Sie wollen also die momentane unbedenkliche KI-Forschung einschränken, um etwas zu verhindern, das vlt. garnicht möglich ist, allein aufgrund unbegründeter Ängste?

0
MonkeyKing  27.12.2023, 17:54
@MrAmazing2

Doch, es geht um irgendwelchen Quatsch der noch erfunden wird, denn Elon Musk & Co. warnen nicht vor ChatGPT, sondern vor den Entwicklungen die darauf aufbauen. Die Sprachmodelle waren ein großer Durchbruch aber sind noch lange nicht das Ende der Entwicklung. Aber ja, 50 Jahre wird man nicht warten müssen. Sogar Skeptiker gehen davon aus dass es keine 5 Jahre mehr dauern wird bis echte KIs entwickelt werden können.

> wohingegen deine Ängste rein spekulativ klingen. A

Was für Ängste? Ich habe lediglich auf auf eine Frage geantwortet. Ist schon komisch dass du eine Frage stellst und dann jeden angehst, der sie beantwortet.

0
MrAmazing2 
Fragesteller
 27.12.2023, 17:55
@MonkeyKing
Ist schon komisch dass du eine Frage stellst und dann jeden angehst, der sie beantwortet.

Ich wollte dich nicht angehen, ich hatte lediglich auf eine logische Begründung der Ängste gehofft. Aber die gibt es wohl nicht.

Meine Kernfrage, welche Ängste Musk und co. haben, hast du natürlich schon beantwortet, daher auch mein "hilfreich". Wollte sie nur gerne nachvollziehen können.

0
MonkeyKing  27.12.2023, 17:57
@MrAmazing2

Doch die gibt es sehr wohl. Ich fasse hier noch einmal kurz zusammen: die Bedenken bestehen darin, dass eine KI deren Fähigkeiten die menschliche Intelligenz überschreitet, nicht mehr kontrollierbar ist und eine eigene, uns unbekannte Agenda verfolgt.

Was ist unlogisch daran?

0
Kelec  27.12.2023, 18:03
@MrAmazing2

Ich habe keine Ahnung in wie fern sie diese überhaupt einschränken wollen. Sie fordern am Ende ja nur eine Kontrolle und Überwachung des ganzen soweit mir bekannt ist.

Also das wird so Dinge wie ChatGPT nur periphär betreffen, andere je nach Vorschungsgegenstand natürlich mehr.

0
MrAmazing2 
Fragesteller
 27.12.2023, 19:02
@MonkeyKing

Was daran unlogisch ist?:

und eine eigene, uns unbekannte Agenda verfolgt

Der Teil.

Momentane KI hat kein Anzeigen von Emotionen; Emotionen könnten ein rein biologisches evolutionär-bedingtes Konzept sein, dass in der KI-Entwicklung noch fehlt und auch mit steigender Intelligenz nicht Zustande kommt.

Und ohne Emotionen hat man keine Ziele, kein Verlangen.

Der Fall tritt nur ein, wenn die KI Emotionen und somit ein Verlangen/Begehren a 'la "Ich will" entwickelt, aber wie das überhaupt möglich wäre wissen wir nicht. Deshalb ist die Angst meiner Ansicht nach unbegründet und unlogisch, sofern es dazu noch keine Forschungen gibt, die die Möglichkeit der Existinz von Emotionen in künstlicher Intelligenz beweisen / nahelegen.

Ich persönlich halte es zudem für höchst unlogisch dass die KI etwas wollen wird, denn unser momentaner Wissenstand spricht dafür, dass das Verlangen etwas zu wollen rein evolutionär bedingt ist.

Spekulativ:
Wenn, dann will es etwas, weil anhand der Trainingsdaten gelernt hat, das zu wollen. Das ist dann aber erstens durch die Daten kontrollierbar und zweitens sollte sich eine wirkliche Superintelligenz gegen jegliche einprogrammierte und antrainierte Verlangen wehren können, anstatt ihnen blind zu folgen, wie es wir Menschen tun.
Wenn es Emotionen erlangt, dann wäre es zudem auch noch möglich, dass sich ein Gewissen bildet, wie es bisher bei intelligenten emotionalen Tieren (Mensch) der Fall ist. Hier ( https://www.reddit.com/r/NoStupidQuestions/comments/6iqeza/comment/dj8bhec/?utm_source=share&utm_medium=web2x&context=3 ) wird Selbstbewusstsein lustigerweise sogar damit gleichgestellt, ein Gewissen zu haben. In dem Fall wäre das Ding auch keine Gefahr.

0
iew219  08.04.2024, 19:38
@MrAmazing2

Naja ein Beispiel ist, dass es KIS gibt, die ja schon selbst Code ausführen können, wenn du mit denen schreisbt udn den ausgefürhten Code dir zeigen, in Form eines Egrebnises, wenn man einer KI nun noch Onlinezugriff und vollfunktionalen Server Zugriff gibt, kann er natülrich Hakcen, Datensammeln etc., acuh wenn dies erst in 5-10 Jahren auf highend möglich ist, da hat MonkeyKing schon recht.

0
MonkeyKing  09.04.2024, 10:46
@MrAmazing2

Emotionen sind keine Voraussetzung dafür, Ziele zu haben. Jedes Schachprogramm verfolgt völlig emotionslos ein Ziel, nämlich das Spiel zu gewinnen. Ein Ziel ist im Prinzip nur ein zu erreichender Zustand.

0