Frage von Mabur, 76

Was haltet ihr von echter künstlicher Intelligenz die schlauer ist als der Mensch (gefährlich, ungefährlich)?

Jetzt ist es ja schon gelungen das Gehirn eines Wurmes nachzubauen: http://www.chip.de/news/Lego-Lebewesen-Forscher-bauen-Wurm-Hirn-in-Lego-Roboter_...

Aber das funktioniert mehr oder weniger über copy paste ohne das den Wissenschaftlern bewusst ist was sie eigentlich machen. Ich frage mich wie soll denn irgenjemamdn kontrollieren, was eine Maschiene denkt wenn ihr einfach nur viele "Neuronen" zur Verfügung gestellt werden, aber nicht klar ist welche Emotionen und Triebe wirken und ohne das überhaupt klar ist ob Emotionen und Triebe wirken. Ich finde die Vorstellung befremdlich, dass allein ein logisches Netz ausreicht um Gefühle zu simulieren da müsste es doch noch eine Zutat geben?

Hilfreichste Antwort - ausgezeichnet vom Fragesteller
von Woelfchen55555, 28

Ich halte künstliche Intelligenzen, die die geistige Leistungsfähigkeit des Menschen erreichen, für sehr gefährlich. Jedoch sind sie zum Glück noch in weiter Ferne - bisher ist es nur möglich, sogenannte schwache Künstliche Intelligenzen zu programmieren, Maschinen, die Intelligenz nur simulieren und bei weitem nicht an den Menschen herankommen. Die von denen du sprichst, die starken KIs [Maschinen, die die Selben kognetiven Fähigkeiten wie der Mensch besitzen], werden wohl noch eine Weile auf sich warten lassen, es gibt sogar viele, die behaupten, es wäre unmöglich.

Wie gefährlich sie werden, kommt darauf an, ob sie ein Bewusstsein besitzen oder nicht. Besitzen sie keins, können sie zwar theoretisch viel Intelligenter als der Mensch sein, würden sich jedoch nicht gegen uns wenden, da sie ohne Bewusstsein für sich selbst keine eigenen Ziele verfolgen würden. Jedoch könnte es sein, dass wir unser Leben immer mehr von ihnen abhängig machen; Denn wäre es nicht besser, die Entscheidungen in vielen wichtigen Dingen Robotern zu überlassen, da diese objektiver und logischer denken? Daraus ergibt ich die Frage, wie sich die Menschheit entwickelt, wenn wir das Denken immer mehr Maschinen überlassen. Verdummen wir? Und was passiert, wenn Maschinen immer mehr Jobs übernehmen? Wird der Mensch verdrängt?

Noch interessanter wird es dann, wenn KIs tatsächlich ein Bewusstsein entwickeln. Dann wüsste man nicht, in wie weit sie noch zu kontrollieren wären. Würden sie weiterhin dem Menschen dienen? Oder nur noch sich selbst?

Auch stellt sich dann die Frage, wie man sie behandeln sollte - schließlich kann man Existenzen mit einem Bewusstsein und Gefühlen nicht einfach nur wie einen Gegenstand behandeln, auch wenn es Maschinen sind. Würde man sie also in die Gesellschaft eingliedern? Wenn ja, könnte es natürlich sein, dass sie sich anpassen und kaum eine Gefahr darstellen. Jedoch bezweifle ich, dass der Mensch je so mit Maschinen umgehen wird. Und wenn diese wirklich ein Bewusstsein entwickeln und wir sie wie Sklaven behandeln, wer könnte es ihnen dann verübeln, dass sie die Menschen loswerden wollen?

Ich könnte noch gefühlt ne Stunde weiterschreiben und alle Punkte noch ewig ausführen [Ich liebe dieses Thema], aber wahrscheinlich bist du schon jetzt gelangweilt xD Ich hoffe, ich konnte dir ein wenig helfen.

Kommentar von grtgrt ,

Künstliche Intelligenz (KI) ist Software. Benutzt man sie, eine Maschine zu steuern, nennt man die Maschine kombiniert mit dieser Software einen Roboter mit künstlicher Intelligenz.

Kennt jene Software sämtliche Teile des Roboters (kann sie also unterscheiden zwischen Dingen, die Teil des Roboters sind und solchen, die nicht Teil des Roboters sind), so ist das Selbstbewusstsein im kleinstmöglichen Umfang. Eigene Ziele kann so ein Roboter aber dennoch nur entwickeln, soweit jene Software das vorgesehen hat. 

Daraus folgt: Selbstbewusstsein über den kleinstmöglichen Umfang hinaus - ja Selbstbewusstsein überhaupt - kann nur der Programmierer dem Roboter gegeben haben. Die Fähigkeit, es selbst zu erweitern, kann der Roboter (genauer: jene Software) nur haben, wenn sie in der Lage sein sollte, sich selbst zu ergänzen. Dies ist im Prinzip möglich - aber stets nur in einem Umfang, in dem der menschliche Programmierer (als Schöpfer jener KI) dies vorgesehen hat.

Problem dabei ist nur: Jeder Mensch, der programmiert, wird unbeabsichtigt Fehler machen. Wenn ein Roboter also gefährlich wird, dann wird er dieser Fehler wegen gefährlich werden - aber nicht, weil er selbst (als Individuum) irgend welche Ziele hätte.

Kommentar von grtgrt ,

Konsequenz daraus: 

KI an sich ist nicht gefährlich. Gefährlich wird es erst, wenn der Mensch sich Dinge schafft, die er - einmal in Gang gesetzt - nicht mehr zu beherrschen in der Lage sein sollte. 

KI oder eine KI-gesteuerte Maschine kann so etwas sein. Eigenen Willen wird sie dennoch niemals haben (ebenso wenig wie ein Feuer, das jemand anzündet, eigenen Willen hat - und zwar ganz unabhängig davon, welchen Schaden es anrichtet und ob es als Lagerfeuer oder als Brandstiftung gemeint war).

Antwort
von Stuck1234, 33

Eine KI muss ALLE Regeln der KI erfüllen. Andernfalls ist es keine "wirkliche KI" sondern nur ein sehr "clever" programmierter Bot.
https://de.wikipedia.org/wiki/K%C3%BCnstliche\_Intelligenz#Informatik
Da das bis jetzt noch nie möglich war sollte man sich noch keine Gedanken drüber machen. :)
An sich sind Dinge die "unkontrollierbar" sind aber natürlich immer schlecht.

Kommentar von Mabur ,

Hm aber wenn sie das Wurmhirn nachbauen konnten bzw. kopieren müssten sie dann nicht in der Lage sein, dass auf größere Sachen zu übertragen, ich weiß dass sie gerade schon am menschlichen Gehirn forschen.

Kommentar von Stuck1234 ,

Das Gehirn des Menschen is dann doch noch "ein klein wenig" komplizierter als das Hirn eines Wurmes. ;-)

Is doch okay wenn daran geforscht wird. Wird höchste Zeit, dass wir dann endlich aktiv mehr von unserem Gehirn nutzen können als jetzt noch zurzeit. :)

Antwort
von DerKritiker911, 43

 Sehr gefährlich.

Antwort
von typ2015, 27

Wahrscheinlich gefährlich. Aber bis dahin dauert es noch. Auch wenn es gefährlich ist, glaube ich kaum, dass sich jemand dieser Faszination entziehen könnte und so etwas nicht bauen würde!

Antwort
von gayonesmanager, 15

Irgendwie cool und irgendwie ja auch nicht so

Keine passende Antwort gefunden?

Fragen Sie die Community

Weitere Fragen mit Antworten