Frage von ANDKNO, 70

Kann es Wirklichkeit werden das eines Tages die Maschinen zb Roboter uns vernichten?

Hi frage steht oben für die die nicht wissen was ich meine ich rede davon das Maschinen wie zb in dem film Terminator uns vernichten. Danke im voraus

Antwort
von ramay1418, 18

Kann sein, muss aber nicht. Warum auch?

Dazu müsste ein Roboter

- sich selbst reproduzieren können (wurde allerdings schon in den Fünfziger Jahren von dem Mathematiker John von Neumann angedacht)

- in der Lage sein, zu beurteilen, was Leben im biologischen Sinne ist,

- eine Motivation haben, uns zu vernichten und da wird es schwierig: Geld, Frauen, Nahrungsmittel entfallen. Bliebe die Macht, aber dazu braucht es

- ein Gehirn haben, dass weiß, was Macht ist, wie man sie erringt und behält.

Und warum sollen sich Roboter (oder Maschinen im weitesten Sinne) nur zum Schlechten entwickeln? Warum nicht nur zum Guten? Vielleicht helfen da die Asimov’schen Robotergesetze weiter:

a) Ein Roboter darf kein menschliches Wesen (was ist das?) schädigen oder zulassen, dass ein Mensch geschädigt wird.

b) Ein Roboter muss einem gegebenen Befehl gehorchen, es sei denn, der verstößt gegen a)

c) Ein Roboter muss seine eigene Existenz schützen, es sei denn, er verstößt damit gegen Regel a) und b)

Es gibt keinen Grund anzunehmen, dass Roboter nur schlecht sein müssen; vielleicht sind sie ja in Zukunft viel zu intelligent, um gefährlich zu werden. Auch heute gilt ja schon: Nur dumme Leute sind gefährlich!

Die Frage ist natürlich auch, ob eine Maschinenintelligenz aus sich heraus lernen kann, was gut und böse ist, also Ethik und Moral entwickeln kann. Wir reden ja nicht über Maschinen, die von Menschen geschaffen und programmiert wurden, sondern über sich selbst reproduzierende Einheiten.

Bei den heutigen Computern und Robotern schlägt das Pendel natürlich eher zur schlechten Seite aus, denn Computer machen, was sie wollen. Nicht nur, dass auf der alleruntersten Ebene die Quantenmechanik das Sein zufällig bestimmt, Computer rauben auch Lebenszeit. So ermöglichen sie, dass hier bei GF solche Fragen gestellt werden und es Leute gibt, die sich Gedanken machen, um diese Fragen zu beantworten ;-)

Und auch in der Produktion versagen Roboter manchmal ihren Dienst. Gibt es also vielleicht schon eine Maschinenverschwörung? Ja, könnte man manchmal denken. 

Schon 1966 veröffentlichte der schwedische Physiker und Nobelpreisträger Johannes Alfvén eine SF-Geschichte: "Sagan om den stora datamaskinen" (deutsch unter dem Pseudonym Olof Johannesson: Saga vom großen Computer,  Limes Verlag, Wiesbaden): 

Vielleicht ist die biologische Evolution ja nur ein Zwischenschritt hin zur Computerzivilisation. Organisches Leben als Vorstufe, weil die direkte Entwicklung von Computern schwieriger war als die biologische? 

Die Geschichtscomputer sind sich noch nicht einig und sie beraten, was in Zukunft zu tun ist; das kann Mikrosekunden dauern oder viele Tausend Jahre.

Werden Menschen für Maschinen zu einem Problem? Soll man sie ausrotten oder unter „Artenschutz“ stellen? Vielleicht wird man die Zahl der Menschen auch nur reduzieren, so wie der Mensch die Zahl der Pferde reduziert, aber nicht abgeschafft hat, nachdem die Dampfmaschine und der Verbrennungsmotor erfunden wurden. 

Es gilt zwar: „Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen.“ (div. Urheber, u. a. Mark Twain, Winston Churchill, Niels Bohr), aber es bleibt spannend! 

Antwort
von HellasPlanitia, 20

Wenn wir Kriegsroboter bauen und diesen den Befehl geben, wahllos Menschen zu töten, dann werden sie das tun. Das lässt sich aber relativ einfach verhindern, indem man a) keine solchen Roboter baut (obwohl das teilweise schon gemacht wird) und b) keine solchen Befehle gibt.

Wovon ich aber nicht ausgehe, sind "friedliche Roboter", die irgendwann ein "Bewusstsein" entwickeln, sich gegen die Menschheit auflehnen und uns alle versklaven oder vernichten. Ob es überhaupt möglich ist, ein künstliches Bewusstsein zu schaffen, ist nach wie vor nicht klar. Wir haben zwar selbstlernende Systeme und Roboter, die bereits extrem intelligent und "menschlich" wirken. Aber nichts davon zeigt auch nur Ansätze eines Bewusstseins. Doch selbst, wenn wir davon ausgehen, dass es uns irgendwann möglich sein wird, sich selbst bewusste Maschinen/Programme zu bauen: Wieso sollten wir eine solche Möglichkeit in Industrie- oder Hilfsroboter einbauen? Weder ein intelligenter Kühlschrank noch ein Pflegeroboter noch ein Assembler-Roboter in einer Autofabrik hat irgendeinen Vorteil davon, wenn er weiss, dass er existiert, und es wäre ungeheure Ressourcenverschwendung, sowas einzubauen.

Vor durchdrehenden Robotern habe ich also keine Angst. Wenn, dann eher vor Menschen, die nicht sehen, dass ein Kampfmaschinen-Wettrüsten tatsächlich gefährlich sein kann, sollten die falschen Leute Zugriff auf die Roboter erhalten. Aber dasselbe gilt für Atombomben auch.

Antwort
von Shiftclick, 31

Autos vernichten Menschen schon jetzt. 1 Million Tote pro Jahr weltweit. Ja, sicher könnte das passieren, vorausgesetzt es gibt eines Tages Roboter wie im Terminator. Kann ein Asteroid die Menschheit auslöschen? Ja, sicher, vorausgesetzt einer trifft die Erde. Können Viren die Menschen auslöschen? Ja sicher, vorausgesetzt er wäre tödlich und infektiös genug. Könnten die Menschen am Hunger zugrunde gehen? Ja sicher, vorausgesetzt, es gäbe nicht mehr genug zum Essen. Könnten Vulkanausbrüche die Menschheit aussterben lassen? Ja sicher, vorausgesetzt, sie wären stark genug, dass das Sonnenlicht ein paar Jahre nicht mehr stark genug ist, dass irgendwas wächst. Könnte eine Supernova das Leben auf der Erde auslöschen? Ja sicher, das ist sogar sehr wahrscheinlich, nur dass man nicht weiß, ob es in 100, in 1000 oder in einer Milliarde Jahren passiert. Gibt es intelligentes Leben auf der Erde? Ich glaube, nein.

Kommentar von ANDKNO ,

für eine Atombombe muss man aber schon ziemlich intelligent sein ;-)

Kommentar von doesanybodyknow ,

Geht so. Man braucht eher Rohstoffe und Anlagen zur Produktion.

Kommentar von martinzuhause ,

für den bau dieser bombe braucht man eine gewisse intelligenz. das war es aber auch schon. für die auslösung ist kein grosses wissen erforderlich. will jemand eine "schmutzige" atombombe bauen braucht er nur die materialien dazu. die bekommt mit dem notwendigen kapital. den rest bekommt auch jemand mit abschluss der 7. klasse hin

Kommentar von ANDKNO ,

die Baupläne gibt es ja im dark net

Antwort
von FxPRO, 14

Schon möglich Wen wir Menschen künstliche Intelligenz erfinden und diese falsch einsetzen oder unterschätzen

Antwort
von Maximus2410, 14

Eigentlich nicht, denn die Roboter werden ja programmiert, und sie greifen nur Menschen an, wenn es in ihrer Programmierung steht, es sei denn, es wird künstliche Intelligenz erfunden und die Roboter denken wir seien eine Gefahr und wollen ums beseitigen

Antwort
von Erikww, 31

es kann sogar passieren das wor alle durch eine riesen spermawelle sterben von den außerirdischen... Natürlich kann es passieren alles kann passieren ob es passiert kann dir niemand sagen

Kommentar von ANDKNO ,

boah bist du lustig

Kommentar von Erikww ,

was soll ich denn sagen was ist das denn für eine frage

Antwort
von Thyralion, 33

Ja das ist sogar wahrscheinlicher als sich viele eingestehen mögen.

Derzeit wird viel mit der künstilichen Intelligenz "gespielt". Wenn diese einen Grad erreicht, an dem sich sich versucht selbst weiterzuentwickeln, wird sich auch Eingaben ihrer Erschaffer hinterfragen.

Sie muss in dem Falle erkennen, dass das Leben an sich nicht die effektivste Art der Entwicklung dartstellen kann und mehr Ressourcen verbraucht als effizient wäre. Demzufolge müsste dies unterbunden werden.

Weitere Schlussfolgerungen kannst du sicher selbst ziehen.

Ich bin kein Untergangsprophet, oder Schwarzmaler, aber das sind Entwicklungen vor denen selbst Stephen Hawking warnt, und den als Spinner abzutun, ist sicher nicht das vernüftigste.

Kommentar von ANDKNO ,

immer hin einer der eine vernünftige antwort gibt. Was du meinst wo vor hawking warnt ist die singularität (ka wie das genau heißt ich glaube aber so), das bedeutet das Maschinen genau so schlau bzw schlauer sind als wir selbst und dieser Zustand wird laut hawking vielleicht schon in diesem Jahrhundert erreicht

Kommentar von Thyralion ,

Gut aufgepasst. Mir war der genaue Inhalt seiner Aussage nicht mehr geläufig. Aber eben diese Entwicklung wird nicht nur zu unserem Vorteil sein. Intelligenz ist darauf ausgelegt sich zu entwickeln. Eindrücke zu verarbeiten und rationell zu deuten.

Auch die künstliche Intelligenz wird eben diesen Weg gehen, andernfalls wäre es nur ein festgesetztes "Gedankenmuster".

Welche Schlüsse gezogen werden könnten, habe ich ja bereits oben geschildert.

Und wenn uns die künstliche Intelligenz als Bedrohung bzw. überflüssig identifiziert, dann wären wir ihr in einer direkten Konfrontation hoffungslos unterlegen.

Kommentar von ANDKNO ,

das glaube ich auch das wir komplett unterlegen wären weil Roboter so gut wie nie einen Fehler machen Menschen schon

Kommentar von Thyralion ,

Ich glaube Fehler sind wengier das ausschlaggebende Element. Ich denke gewichtiger ist die enorme Reproduktionsrate. Beim Menschen würde es Jahrzehnte brauchen um einen einsatzfähigen Soldaten zu erzeugen, bei Maschinen nur wenige Stunden.

Hinzu kämen weniger Ausfallraten. Ein Mensch ist schon bei kleineren Verletzungen Kampfunfähig, eine Maschine ist schon allein wegen eines fehlenden Schmerzempfindens weniger schnell ausser Betrieb zu setzen.  

Keine passende Antwort gefunden?

Fragen Sie die Community