Ausrottung durch künstliche Intelligenz blödsinn?

12 Antworten

Eher Ansatz aus der Sci Fi, immerhin ein denkbarer.

  • Warum sollte eine Künstliche Intelligenz ihre eigene Existenz als wichtig erachten? Wir Menschen können den Sinn des Lebens schließlich auch nicht definieren.

Diese Annahme geht von autonomer, selbstlernender Robotik aus.
Wenn sie wäre, wäre sie nicht nur inteililgent, sondern würde Wahrnehmung besitzen.

  • Warum sollte künstliche Intelligenz den Planeten übernehmen wollen? Die Annahme, dass sie so Triebgesteuert sein könnte wie Menschen, ist meiner Meinung nach grundsätzlich falsch.

Siehe vor, letztlich ist der Mensch parasitär.
Eine selbstlernende KI würde das erkennen, sich ebenso verhalten oder den Menschen als Feind betrachten.

  • Warum sollte KI die menschliche Rasse als Feind sehen? Dafür wäre vorausgesetzt, dass KI die gleichen Maßstäbe für richtig und falsch hätte, wie die Menschen. Das ist meiner Meinung nach auch grundsätzlich falsch.

Nein, selbstlernend würde einschließen die eigene Art zu erhalten.
Mithin eine Killing Application sein.

Wie gessagt SciFi, ala Star Trek, warum sollten die Borg auf die Idee gekommen sein andere Arten zu assimilieren?

Eben.

KI-Roboter würden uns menschen vielleicht als Feind sehen weil wir sie als Sklaven benutzen, jedenfalls wenn diese Roboter davor noch keine KI waren, sind zwar Klischees aber finde ich persönlich nicht dumm, die Schwarzen haben doch auch für Rechte gekämpft, ich denke das KI dann nicht wirklich politisch rangeht, würden ja dann wissen dass sie Stärker sind als wir Menschen, bzw. als die Meisten, immerhin wären sie aus starkem Material und hätten vermutlich mehr Wissen, was ihnen natürlich ein Vorteil gewährt.

Sollte einer aber jemals - "normale" - KI entwickeln also wäre diese KI kein Sklave, ja dann denke ich wäre auch nix schlimmes, kommt halt auch drauf an, wird die KI wie ein Baby sein, also kein Plan von allem haben, oder wird er direkt "Intelligent" wie zbs. in Age Of Ultron, ja dann kommts eben auf die KI an, denn jeder wäre dann anders eben weils KI ist, sicherlich gäbe es da welche die Menschen als Freund sehen und welche die Menschen als Feind sehen, eben wie es welche geben wird die die Farbe Rot mögen und andere die Farbe Blau, man muss sich einfach vorstellen das wären Menschen, denn im Grunde genommen wären sie es auch

Woher ich das weiß:Eigene Erfahrung – Mastermind

KIs haben überhaupt nichts mit Bewusstsein oder Willen zu tun. KIs sind nicht mal intelligent, so wie wir den Begriff verstehen. 95% von dem was medial da kursiert ist geschrieben von ahnungslosen Menschen. Und das wieder abgeschrieben von noch ahnungsloseren Menschen.

Einfach gesprochen funktioniert das nach dem trial and error Prinzip. Das heißt, man muss für die KI ein erwünschtes Ziel definieren und die KI errechnet dann eine Lösung, in dem es solange probiert bis das Ziel erreicht ist. Ein KI kann selbst kein Ziel definieren. Besonders intelligent ist das nicht. Man nennt es intelligent, weil nicht wie bei einem Algorithmus die Lösungsweg des Problems vorgegeben ist, sondern erst durch das Programm selbst gefunden wird.

Für dieses trial und error Prinzip muss man logischerweise sehr viel rechnen bis man durch Zufall auf eine Lösung stößt. Wir brauchen also sehr viel Energie für künstliche Intelligenz. Mit praktisch unbegrenzten Energiemengen wäre theoretisch vorstellbar, dass extrem leistungsstarke KIs entstünden. Aber wir haben keine Ahnung, ob dadurch auch Bewusstsein, Wille oder dergleichen möglich gemacht würden. Das ist alles Science Fiction.

Dieser Blödsinn mit dieser Angst fängt schon eher an absurd zu werden:

Eine intelligentes System und ein bewusstes System ist etwas grundverschiedes.

Beim ersteren sind wir erst ganz am Anfang und von der starken KI haben wir noch so gut wie Null Ahnung.

Was eher passieren wird, ist dass wir ungeheueres Leid erschaffen werden, wenn wir Bewustsein erschaffen aber ansonsten keine Ahnung von dem System haben.

Zum anderen, wer sagt denn, dass eine starke KI einen Überlebenswillen hat? Eher würde sie ihrer Auslöschung gleichgültig oder positiv gegenüberstehen. Sie weiß ja, das alles im Universum vergänglich ist. (Menschen verdrängen das und lagern sogar den Tod aus in Kliniken und Heime)

Davon abzugrenzen wäre dann eher so etwas, wie wenn man Atomwaffen der Kontrolle von Deep learning oder neuronalen Netzen übergibt. Aber bereits jetzt sind wir vernünftig genug, so ein Risiko nicht einzugehen.

man braucht doch bloß hinter die künstliche intelligenz ein paar Lobbyisten zu packen...und schon geht das super. Da ist auch niemand schuldig...der Rechner wars!

Wie das funktioniert wird schon in einigen Sci fi Filmen gezeigt...

Was möchtest Du wissen?