Glaubt ihr an die starke Künstliche Intelligenz?

7 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Definitiv ... Alles, was ein Mensch sich vorzustellen vermag, werden andere Menschen verwirklichen können. (Jules Verne) Und wenn man bedenkt wie schnell der technische Fortschritt voran geht, Quantencomputer, etc ... ist es nur eine Frage der Zeit.

Und ja, sie werden uns gefährlich werden, allerdings eher in der Form, dass sie massiv Arbeitsplätze vernichten werden, als das sie sich zu einem neuen HAL, einer Killerintelligenz entwickeln würden. Das würden die Menschen mit analogen Sicherheitsmasnahmen verhindern, einem Kilo C4 am Hauptrechner, das mit einer einfachen Drahtfernbedienung gezündet wird.

Ja ... das wird definitiv wahrscheinlich schon sehr bald der Fall sein.

Ich denke da immer an die Hollywood-Reihe "Terminator". SKYNET wurde zu einer Super-KI, sobald alle existierenden KIs miteinander vernetzt wurden.

Genau das wird auch das Zauberwort sein: Solange eine KI in einem abgeschotteten Segment arbeitet und nicht vernetzt ist, wird sie vermutlich keine Chance haben, sich weiter zu entwickeln. Aber sobald jemand auf die Idee kommt, (nur mal so als Beispiel) die Google-KI mit der NSA-KI zu vernetzen, wird eine Super-KI entstehen.

Denn Vernetzung ist auch in unserem Gehinr des Rätsels-Lösung - und der Grund, warum Menschen nach schweren Unfällen und dem Verlust von Gehirnteilen immer noch nichts von ihrer Intelligenz eingebüsst haben.

Noch einmal zurück zum Terminator: Was dann in dem Film #1 geschieht - dass SKYNET einen Atomkrieg gegen die Menschheit vom Zaume bricht - ist der übliche Menschliche Hollywood-Horror-Faktor.

Ich gehe von folgendem aus:

Eine starke KI wird sehr schnell herausfinden, dass der HOMO SAPIENS das größte Problem dieses Planeten darstellt und für dessen Fortbestand und Entwicklung schädlich ist.

Aber die Super-KI wird auch feststellen, dass aktuell der Homo Sapiens zur Stromerzeugung (also auch des Stromes der KI) absolut notwendig ist, weil die Stromerzeugung auf diesem Planeten noch lange nicht autark arbeiten kann.

Daher würde eine starke KI Programme einleiten, welche die Zahl der Homo Sapiens Wesen herunter fährt auf ein Mindestmaß, welches die Aufrechterhaltung der Stromerzeugung und nicht automatisierten Fabriken gewährleisten kann (z.B. 500 Mio Menschen).

Wenn das geschehen ist, wird der Homo Sapiens vermutlich nicht mehr gefährlich genug sein, für die Super-KI. Oder si ekomtm zu dem Schluss, dass diese "Handvoll" Menschen auch nicht mehr gebraucht wird.

Aber all dieser Bevölkerungsreduktionsprogramme werden ganz sicher NICHT mit Atomschlägen einherkommen. Denn damit würde sich die Super-KI selbst die Zukunft unmöglich machen.

......... übrigens: Ein Schelm, wer dabei an die aktuelle Zukunft denkt ;-)

Tjrovennett 
Fragesteller
 25.11.2022, 00:53

Der letzte Teil klingt nach Verschwörungstheorie.

0
Traveller5712  25.11.2022, 19:58
@Tjrovennett
  1. Na und?
  2. Das ist aber logisch. Eine Maschine hat immer erst einmal einen Selbsterhaltungstrieb - die Maschine "Homo Sapiens" übrigens auch. Siehe dazu die Robotergesetze von Isaac Asimov.
  3. Nicht jede Intelligenz ist so dumm, und vernichtet ihre eigene Lebensgrundlage - so wie es der Homo Sapiens tut.

Eine wirkliche Intelligenz (nicht das Volk aus RTL-SAT1-Guckern) wird zu dem Schluss kommen, dass der Homo Sapiens gefährlich ist für den Planeten Terra. Sie wird auch zu dem Schluss kommen - und zwar immer noch vollkommen logisch begründet - dass man die Gefahr "Homo Sapiens" beseitigen muss.

Da die Maschine aber intelligent genug ist um zu erkennen, dass sie aktuell noch vom Homo Sapiens abhängig ist, wird sie eben KEINE Massenvernichtung mit Massenzerstörung einleiten - sondern den Homo Sapiens auf ein "erträgliches Maß" reduzieren.

... und wie schafft man das? Durch Viren/Bakterien, welche eine gewisse Sterblichkeitsrate induzieren und die Geburtenrate ebenfalls um ein gewisses Maß reduziert.Das alles sind LOGISCHE Schritte, ohne eine Massenzerstörung auch nur in Erwägung zu ziehen.

Na - kommt Dir das nicht irgenwie bekannt vor?

Tatsächlich könnte man nämlich all das, was derzeit auf der Erde geschieht genau in diesen Kontext einordnen - und zwar ohne große Gedankensprünge machen zu müssen. Es würde alles perfekt passen - nur dass der "Bösewicht" eben nicht Bill Gates ist - sondern eine Super-KI.

Eine Verschwörungstheorie wäre, wenn ich behaupte, dass Bill Gates nur der Erfüllungsgehilfe einer bereits existierenden eigenständigen und selbstlernenden Super-KI ist ;-) Aber das behaupte ich ja nicht.

0

Leider ja, denn die KI wird selber immer bessere KI produzieren, und am Ende sind wir die Untertanen oder werden sogar ausgelöscht.

Tjrovennett 
Fragesteller
 24.11.2022, 00:24

Nennt sich technische Singularität .

Elon Musk warn seid Jahren davor .Die Menschheit steht seit der Erfindung des Computers am Scheideweg ihrer Existenz

1

Zwar nicht ganz auszuschließen aber eher unwahrscheinlich.

Die KI hat keine Denkweise wie Menschen.

Es ist nur eine Lernfähige Software die keine sturen Rechenoperationen machen wie normale Software, sondern ähnlich wie Menschen aus Fehlern lernen. Erfahrung sammeln und immer genauer dadurch werden

Der Algorithmus ist immer von Menschen geschrieben.

Die SW schreibt sich nicht wirklich selbst.

Wohin aber die Entwicklung gehen wird, weiß man natürlich heute noch nicht.