Frage von grubenhirn, 292

Gibt es einen Grund zur Annahme, dass die Roboter, die auch heute schon existieren (Anno 2016), bereits ein Bewusstsein besitzen...?

und müsste man dann nicht, falls dies bejaht wurde, mittels neuroethischer Überlegungen Maßnahmen zur Leidvermeidung künstlich intelligenter Systeme treffen, quasi analog zu Mensch und Tier?

Anders formuliert: Gibt es bereits einen berechtigten Grund für ein sofortiges Engagement - im Bereich Neuroethik - für eine Leidvermeidung künstlich intelligenter Systeme?

Hilfreichste Antwort - ausgezeichnet vom Fragesteller
von NoHumanBeing, 197

Nein, die heutige "KI" besteht größtenteils aus deterministischen Algorithmen und simuliert in der Regel auch nicht neurophysiologische Vorgänge, wie sie im menschlichen (oder tierischen) Gehirn ablaufen, sondern wendet "einfach" ein komplexes Regelwerk an, um Entscheidungen zu treffen.

Dein Gehirn arbeitet so nicht. Es ist nicht "programmiert". Es wendet keine Regeln an. Es arbeitet kontinuierlich und analog. Es besteht aus hundert Milliarden Zellen, die elektrische Impulse abgeben und sich gegenseitig anregen. Die Verarbeitung erfolgt nicht regelbasiert. Das Verhalten ist emergent, das heißt es entsteht erst aus der Gesamtheit aller Neuronen. Man kann es nicht in "funktionale Einheiten" separieren und man kann aus seiner Struktur in der Regel (d. h. bis auf sehr grundlegende Mechanismen, wie etwa Reflexe) keine Regeln (im Sinne von: "Stimulus X wird zu Reaktion Y führen") ableiten.

Außerdem braucht es für Bewusstsein vermutlich quantenmechanische Vorgänge mit ihrem strikten Nichtdeterminismus. Der Determinismus erlaubt schließlich keinen freien Willen.

Also keine Angst! Die "KI", die heutzutage verwendet wird, hat definitiv kein Bewusstsein und sie ist auch nicht wirklich intelligent. ;-)

Eine der Grenzfälle ist beispielsweise IBM's "BlueBrain"-Projekt, dessen Ziel es tatsächlich ist, ein "künstliches Gehirn" zu erschaffen, indem das Verhalten von Neuronen auf neurophysiologischer und biochemischer Ebene simuliert wird. Projekte, die von dieser Art sind, könnten ab einer gewissen Komplexität in der Tat Bewusstsein, mit allen ethischen Konsequenzen, die daran hängen, hervorbringen.

Kommentar von grubenhirn ,

Außerdem braucht es für Bewusstsein vermutlich quantenmechanische
Vorgänge mit ihrem strikten Nichtdeterminismus. Der Determinismus
erlaubt schließlich keinen freien Willen.

Der freie Wille kann allerdings ohnehin nur Illusion sein, in Wirklichkeit wissen wir doch nie weshalb wir etwas tun oder wollen, aber das ist eine andere Diskussion und lenkt vom eigentlichen Thema ab.

Kommentar von NoHumanBeing ,

Mag sein, dass es nur eine Illusion ist.

Aber wenn der freie Wille tatsächlich nur eine Illusion ist (und Qualia dann vermutlich auch - geht ja in die selbe Richtung, betrachtet lediglich ein anderes Phänomen) und Du ein "biologischer Computer" bist, der sein "Programm" abarbeitet, wäre es dann tatsächlich noch unmoralisch, Dich gefangen zu halten, zu quälen oder gar zu töten?

Kommentar von grubenhirn ,

[...]wäre es dann tatsächlich noch unmoralisch, Dich gefangen zu halten, zu quälen oder gar zu töten?

Es ist so, dass Ethik sich niemals komplett herleiten lässt, bis in die letzten Verästelungen. Man muss einen gewissen Grundkonsens herstellen.

Z.B.: Leid ist real ---> Leid ist unangenehm ---> Leid sollte immer verhindert werden.

Der Rest folgt dann daraus.

Kommentar von NoHumanBeing ,

Z.B.: Leid ist real ---> Leid ist unangenehm ---> Leid sollte immer verhindert werden.

Der Rest folgt dann daraus.

Ja, die Frage, die aber notwendigerweise folgt, ist folgende.

Wenn ich einen Prozess, der ein hinreichend komplexes künstliches neuronales Netz simuliert, beende (entweder nur den Prozess oder gleich den kompletten Rechner abschalte), habe ich dann ... "jemanden umgebracht"? o.O

Wenn ja, wie kann ich so ein "Ding" überhaupt jemals starten, ohne etwas moralisch verwerfliches zu tun? Ich meine ich bürde mir (und auch kommenden Generationen) im Grunde damit ja auf, sicherzustellen, dass das Ding ab dann für immer und ewig weiterlaufen wird.

Kommentar von grubenhirn ,

In der Tat eine ziemlich schwierige Frage.

Vermutlich muss man dafür eine neue Vorstellung/Interpretation vom Sein bekommen.

Wenn man einen intelligenten Roboter abschaltet, der Bewusstsein entwickelt hat - dafür brauch er übrigens nicht unbedingt so intelligent sein wie ein Mensch, nur als Anmerkung - dann muss er ja nicht zwangsläufig tot sein (man siehe eine mögliche Lösung bei dem Computer Spiel - SOMA[2015]). Er wäre wieder am Leben, wenn er wieder eingeschaltet worden ist.

Diese künstlichen Systeme kann man ja viel einfacher wieder in den gleichen Zustand bringen. Beim Gehirn geht das nicht, weil es ein thermodynamisches System ist. Hier muss ich zugeben, dass es eine philosophische Frage ist, ob dieses Subjekt dann das gleiche wie zuvor ist, wenn man es wieder einschaltet.

Diese Problematik stellt sich ja auch bei eventuellen Quantenteleportationsverfahren.

Es wäre auf jedenfall eine der Fragen, die geklärt werden müssten.

Kommentar von grubenhirn ,

Gehst du wirklich davon aus, dass die Roboter, wie die von Boston Dynamics, noch keinerlei Bewusstsein besitzen? Vielleicht können die sich einfach noch nicht veräußern.

Ist es nicht so, dass ein kybernetisches System, welches auf Reize der Umwelt reagiert und dann sein Verhalten anpassen muss, nicht zwangsläufig Bewusstsein besitzen muss?

Ich meine, könnte es dann bei Menschen nicht genauso sein, schließlich könnten die sich ja auch einfach bewegen ohne Bewusstsein, aber bei uns wissen wir, dass wir ein Bewusstsein besitzen, ein subjektives Erleben. Sehen kann man das ja nicht gerade von außen betrachtet.

Kommentar von NoHumanBeing ,

Ist es nicht so, dass ein kybernetisches System, welches auf Reize der Umwelt reagiert und dann sein Verhalten anpassen muss, nicht zwangsläufig Bewusstsein besitzen muss?

Nein.

Ich halte im Gegenteil die Kybernetik für vollkommen irrelevant, wenn es um die Bildung von Bewusstsein geht. Woher soll ein System wissen, ob es mit seiner "realen" Umwelt oder mit einer "simulierten" Umwelt (oder gleich mit etwas vollkommen abstraktem) interagiert?

Weißt Du, ob Deine Umgebung "real" ist? Alles was Du weißt ist, dass Du Reize herein bekommst und welche abgeben kannst. Du hast den Eindruck, dass sich die Welt um Dich herum "plausibel verhält", aber sie könnte dennoch simuliert sein, oder?

Umgekehrt sehe ich nicht, weshalb ein System, das beispielsweise lediglich über ein Terminal mit mir interagiert (ober überhaupt nicht mit mir, sondern beispielsweise mit einem Prozess interagiert) kein Bewusstsein entwickeln sollte. Für dieses System ist dann eben das Terminal oder der Prozess "die Realität", "die Welt". Etwas anderes gibt es dann eben nicht. Ich sehe nicht, wieso das das System davon abhalten sollte, Bewusstsein zu entwickeln.

Kommentar von NoHumanBeing ,

Ich gebe zu, ich habe gerade ein Video gesehen, wo sie einen Roboter von Boston Dynamics treten und habe mir gedacht: Autsch! ;-)

Das liegt aber letztlich nur daran, dass die Dinger aussehen, wie Tiere.

Es ist ein Computer, er spürt nix. ;-)

Er hat eine Radar-Antenne auf seinem "Kopf", die rotiert und mit der er vermutlich etwas "sieht". ;-)

Er "greift auch nicht an", wenn er getreten wird, weil er nicht darauf programmiert ist. ;-)

Er ist nur darauf programmiert, sich zu stabilisieren und nicht umzufallen, wenn ihm jemand einen Hieb verpasst. ;-)

Kommentar von grubenhirn ,

Gehst du nicht davon aus, dass man einen "echten" Körper (Embodiment) brauch für Bewusstsein.

Denkst du, ein simulierter Körper sowie Raum reicht aus?

Thomas Metzinger denkt ja, dass das Selbst (Ich) durch einen Interpretationsfehler - vom im Gehirn verankerten genetisch determinierten Körpermodell - entsteht, dass also das Gehirn dieses Modell für sich selbst hält, wodurch das Selbst entsteht.

Kommentar von NoHumanBeing ,

Nein, ich denke nicht, dass es das braucht.

Das menschliche Gehirn funktioniert ja auch bei Menschen, denen Sinne oder Gliedmaßen fehlen. Und diese Menschen "vermissen" diese Dinge ja dann auch nicht, weil sie sie ja nie hatten.

Ich sehe das Gehirn ziemlich als "weißes Stück Papier", das sich erst dadurch "konfiguriert", dass es Reize von außen bekommt.

Das wird auch dadurch deutlich, dass ich "künstliche Neuronen" an vollkommen andere "Aktoren" binden kann (z. B. an "vor/zurück/links/rechts/hoch/runter"-Anweisungen in einem Computerspiel) und sie trotzdem noch funktionieren, meist sogar wesentlich besser, weil diese Aktoren natürlich sehr viel einfacher zu steuern sind, als komplexe Bewegungsabläufe mit einer "echten Muskulatur". Meist ist es auch besser, wenn ich dem Netz "abstraktere Eingaben" gebe, beispielsweise die Position von Feinden in Koordinaten, anstatt das tatsächliche Bild auf dem Bildschirm, sodass es dieses erst aufwändig analysieren müsste. (Sehen ist ja ein unglaublich komplizierter und "schwieriger" Prozess.)

Ich kann ein neuronales Netz sogar an einen Compiler binden, sodass es über seine "Sensorik" seinen eigenen Code inspizieren und über seine "Aktorik" sich durch diesen "bewegen" und ihn modifizieren kann. Das ist vollkommen "abstrakt", kann aber mit dem richtigen Training und geeignetem pre- und postprocessing "funktionieren".

Zugegebenermaßen funktioniert das meist aber nur sehr rudimentär, weil Computerprogramme natürlich sehr komplex sind und ein hohes Maß an Intelligenz erfordern, um sie wirklich zu verstehen, ein künstliches neuronales Netz (auch mit sehr viel komplexerer Architektur, als Kohonen- oder Feed-Forward-Netze) aber in der Regel schlicht nur über relativ primitive Fähigkeiten verfügt.

Kommentar von grubenhirn ,

Ich sehe das Gehirn ziemlich als "weißes Stück Papier", das sich erst dadurch "konfiguriert", dass es Reize von außen bekommt.

Wenn wir schon einmal dabei sind, würd' ich gern dazu noch einen Gedanken abgeben.

Diese neuronalen Netze (Konnektionismus) passen sich zwar an, aber dennoch müssen sie (wie ich gelesen habe) zum Teil noch per Hand nachjustiert werden.

Fehlt da nicht einfach die evolutionäre Komponente. Das Gehirn fängt doch gar nicht bei Null an. Etwa 25% (Angabe stammt von einem 20 Jahre alten Buch) der neuronalen Verbindungen im menschlichen Gehirn sind genetisch determiniert, was bedeutet, dass sie quasi als Betriebssystem die möglichen weiteren Verbindungen bestimmen, wenn ich das richtig verstehe.

Ist das nicht der Grund, weshalb sich Menschen wie Menschen und Löwen wie Löwen usw. verhalten? Und steckt nicht in diesem vorbestimmten Verbindungen auch der Schlüssel letztendlich für alles intelligente Verhalten? Womit ich aber nicht sagen möchte, dass intelligentes Verhalten immer mit Bewusstsein korreliert, denn dann müsste man ja nicht intelligenten Systemen das Bewusstsein absprechen, was ich natürlich nicht tun möchte.

Verwendet man nicht auch schon evolutionäre Algorithmen?

Nein, ich denke nicht, dass es das braucht.

Also vertrittst du die starke KI-These - oder?


Kommentar von NoHumanBeing ,

Diese neuronalen Netze (Konnektionismus) passen sich zwar an, aber dennoch müssen sie (wie ich gelesen habe) zum Teil noch per Hand nachjustiert werden.

Ich "mag" die KNNs, die üblicherweise verwendet werden, ohnehin nicht, bzw. halte sie nicht für "ein Modell neuronalen Lernens".

Den "Lernalgorithmus", der die Gewichte anpasst, gibt es ja in der Natur so nicht. Einfach mal schauen, wie z. B. Backpropagation funktioniert. --> Kein biologisches Vorbild.

Außerdem haben die meisten "neuronalen Netze" keine Zeitkomponente. Sie werden rekursiv, "von hinten nach vorne" ausgewertet. Das entspricht auch nicht dem, was in biologischen neuronalen Netzen passiert.

Ich denke auch, dass bei biologischen neuronalen Netzen ein Großteil des "Zustands", des "Wissens", in den tatsächlichen Membranpotentialen der einzelnen Neuronen steckt und nicht nur (oder auch nur "überwiegend") in seinen Verbindungen, die für mich eher ein "Architekturparameter" sind.

Die Verbindungen sind ja letztlich eine Art "Schaltung". Ein elektronischer Speicher (DRAM beispielsweise) hat die Information aber auch nicht in seiner Schaltung (die ist unabänderlich), sondern in Form von elektrischer Ladung, die in den Schaltelementen (Transistoren, Neuronen) gespeichert ist.

Neuronen und Transistoren sind sich dabei gar nicht so unähnlich. Beide sind in erster Linie Verstärker.

Meines Erachtens sollte ein neuronales Netz daher hauptsächlich dadurch "lernen" (und auch ständig lernen, nicht nur während einer expliziten "Lernphase"), dass es seine Membranpotentiale anpasst. Das entspricht aber nicht dem, was heutzutage als "künstliches Neuronales Netz" verstanden wird. Die heutigen KNNs sind daher aus meiner Sicht kein geeignetes Modell für Informationsverarbeitung durch Nervenzellen, etwa im Gehirn.

Womit ich aber nicht sagen möchte, dass intelligentes Verhalten immer mit Bewusstsein korreliert, denn dann müsste man ja nicht intelligenten Systemen das Bewusstsein absprechen, was ich natürlich nicht tun möchte.

Umgekehrt müssen intelligente Systeme auch nicht unbedingt Bewusstsein haben, oder? Was ist denn "Intelligenz" überhaupt?

Und was ist überhaupt "Bewusstsein"? Ist es "wissen, dass ich existiere"? Oder hat es etwas mit Qualia zu tun? Diese beiden Dinge sind meines Erachtens auch unabhängig.

Es gibt zum einen Tiere, die sich nicht selbst erkennen können (z. B. im Spiegel), die aber meines Erachtens dennoch über Qualia verfügen können.

Umgekehrt gibt es sicher auch Systeme, die sich selbst erkennen können, aber ganz bestimmt nicht über Qualia verfügen. Die Leukozyten in meinem Blut beispielsweise können Körperzellen von mir (und andere Leukozyten) erkennen und von fremden Zellen unterscheiden. Das heißt ein Leukozyt erkennt "sich selbst" (und "seinesgleichen"). Trotzdem würde ich ihm kein "Bewusstsein" zusprechen wollen. Dafür ist er viel zu primitiv. Es ist ja nur eine einzelne Zelle, und dann nicht einmal eine Nervenzelle. Auch lassen sich einfach technische Systeme fertigen, die "sich selbst erkennen". Alles, was es dazu braucht ist ja ein (möglichst) "eindeutiger Bezeichner" und eine Abfrage, ob dieser übereinstimmt oder nicht. Das ist aber nicht, was ich intuitiv mit dem Begriff "Bewusstsein" bezeichnen würde.

Also vertrittst du die starke KI-These - oder?

Soweit ich weiß gibt es selbst für die Begriffe "starke" und "schwache" KI mindestens zwei vollkommen unterschiedliche Definitionen.

Ich denke, dass es zur Entstehung von Bewusstsein nicht unbedingt organisches Material (also Kohlenstoff) braucht. Silizium ist auch ein Element aus der vierten Hauptgruppe. Warum sollte es damit nicht funktionieren?

Also ja, gewissermaßen, ich denke man kann Bewusstsein unabhängig von organischem, biologischen, ... Leben hervorbringen. Und umgekehrt gibt es logischerweise auch (biologisches) Leben ohne Bewusstsein.

Kommentar von NoHumanBeing ,

Wobei ich mir nicht sicher bin, ob "Bewusstsein im engeren Sinne", also wie wir es Tieren (einschießlich des Menschen) zuschreiben, nicht ein quantenmechanisches Phänomen ist.

Das Problem liegt im freien Willen, den es nur bei einem nichtdeterministischen System geben kann. Die klassische Mechanik erlaubt keinen Nichtdeterminismus. Digitalrechner sind auch im Allgemeinen deterministische Systeme. Die Quantenmechanik hingegen erlaubt (oder "Erzwingt") beim Messvorgang durch den "Kollaps der Wellenfunktion" echten Nichtdeterminismus.

Es könnte daher sein, dass jegliche Form von "KI", egal wie fortgeschritten, solange sie auf einem Digitalrechner oder einem anderen deterministischen System ausgeführt wird, ethisch betrachtet "unproblematisch" ist, weil sie vermutlich nicht über diese Form von Bewusstsein im engeren Sinne, wie es bei Lebewesen vorliegt, verfügen kann.

Kommentar von grubenhirn ,

Danke für diesen interessanten Kommentar!

Ich geh' nur auf ein paar kleine Details ein.

Und was ist überhaupt "Bewusstsein"?

Für mich ein erlebendes Subjekt. Das, was mit Qualia ausgedrückt wird. Man weiß ja inzwischen auch, dass z.B. Aufmerksamkeit und Bewusstsein zu trennen ist. 

Ist es "wissen, dass ich existiere"?

Dieses wissen, um die eigene Existenz, setzt wiederum ein sprachliches Verständnis voraus (behaupte ich mal), deshalb würde ich es nicht als Kriterium nehmen und der Spiegeltest ist ja eher ein Test für die Abstraktionsfähigkeit als für Bewusstsein in meinen Augen.

Es könnte daher sein, dass jegliche Form von "KI", egal wie
fortgeschritten, solange sie auf einem Digitalrechner oder einem anderen
deterministischen System ausgeführt wird, ethisch betrachtet
"unproblematisch" ist, weil sie vermutlich nicht über diese Form von
Bewusstsein im engeren Sinne, wie es bei Lebewesen vorliegt, verfügen
kann.

Es ist auf jeden Fall eine Gefahr nicht für uns, sondern für alles was wir
erschaffen, wenn wir gar nicht genau wissen, wo Bewusstsein eigentlich
anfängt und wo es aufhört, deshalb auch meine Frage. Natürlich wäre es
bedauerlich, einfach mit allem aufzuhören.

Dazu kann ich
Schopenhauer zitieren:"jeder befriedigte Wunsch gebiert einen neuen".
Dies ist auch der Grund für Forschung, denn wirklich glücklicher macht
es nicht.

Kommentar von grubenhirn ,

Nachtrag:

Yvonne Hofstetter spricht in einem Interview (2015-2016) davon, dass bewusste, künstliche Systeme schon längst existieren:

https://www.youtube.com/watch?v=-1dGJIMNKxY (Minute 10:10!)

Bedenklich, sehr bedenklich.

Also muss man doch schon jetzt aktiv werden! Anno 2016.

Antwort
von Enzylexikon, 116

Nein, ich gehe nicht davon aus, dass Roboter über ein Bewusstsein verfügen.

Letztlich handelt es sich ja nur um Computer, die mechanische Vorrichtungen, wie Arme, Beine, oder simulierte Gesichtsmuskeln bewegen.

Das Muster diese "künstlichen Intelligenz" folgt meiner Meinung nach eigentlich immer noch dem uralten Konzept, dass man aus den Programmiersprachen kennt:

"IF (Variable) THEN GOTO...(Variable)"

Das sind reine Berechnungen. Lediglich die Leistungsfähigkeit durch Variablen ist meiner Meinung nach gestiegen.

IF (Kamera-Augen entdecken lächeln) THEN (Künstliche-Mimik lächel zurück) AND (bewege winkend mechanische Hand) PLAY (Audio-Datei mit Willkommensfloskel).

Und schon hat man einen lächelnden, winkenden Roboter, der einen anblickt und "Hallo, Willkommen" sagt.

Da hat der Mensch dann doch ein etwas anderes Weltbild, das nicht nur über mehr Variablen verfügt, sondern sich zudem auch mit "unlösbaren" oder "irrationalen" Dingen befasst.

Ein Roboter könnte einem Menschen melden "Schaltkreis A beschädigt. Bitte Bauteil auswechseln" - was aber nicht mit Emotionen, wie bei der Erkrankung eines Menschen verbunden wäre.

Antwort
von Weltraumdackel, 183

Ich glaube nicht. Und falls es doch schon welche gäbe, würde man an solche nicht herantreten können um ihnen helfen zu können.

Die Roboter von Boston Dynamics (zumindest die, die der Öffentlichkeit präsentiert werden) scheinen auch noch nicht über eine komplexe KI zu verfügen.

Man sollte sich aber in 50 Jahren eine solche Frage auf jeden Fall noch einmal stellen, dann könnte sie durchaus schon ihre Berechtigung haben.

Antwort
von Lennister, 116

Zu dieser Annahme gibt es keinen Grund. Und ich bezweifle im übrigen, dass Roboter jemals ein Bewusstsein haben werden. Sie sind nämlich aus anorganischer Materie; bisher scheint es aber so, dass organische Materie die Grundvoraussetzung für Bewusstsein ist. 

Kommentar von grubenhirn ,

[...]bisher scheint es aber so, dass organische Materie die Grundvoraussetzung für Bewusstsein ist.

Das halte ich für Unsinn. Es kommt doch nicht auf die Moleküle an, sondern rein auf die Elektronen. Ohne Elektronen ist das Gehirn, genauso wie alle Elektronik, wertlos.

Kommentar von Lennister ,

Zwischenfrage: Ist das Bewusstsein im Gehirn selbst zu finden, oder wird es durch das Gehirn erzeugt? 

Kommentar von grubenhirn ,

Das Letztere würd' ich sagen!

Durch die Elektronenbewegung, es ist ein Prozess und kann daher nur in der Zeit existieren.

Kommentar von NoHumanBeing ,

Sie sind nämlich aus anorganischer Materie; bisher scheint es aber so, dass organische Materie die Grundvoraussetzung für Bewusstsein ist.

Das ist doch reinster Kohlenstoffchauvinismus. ;-)

Warum sollte es mit Kohlenstoff funktionieren und mit Silizium (ebenfalls vierte Hauptgruppe) nicht?

Außerdem kann man bereits Halbleiter aus Kohlenstoff herstellen. Die sind dann zwar nicht wirklich "organisch" (weil elementarer Kohlenstoff ist per Definitionem anorganisch), aber die ganze Aufteilung "organisch", "anorganisch" ist doch letztlich menschengemacht.

Antwort
von Wahchintonka, 15

Roboter können kein Bewusstsein haben. Künstliche Intelligenz schon. Und wir können kein Gehirn haben. Wir sind unser Gehirn

Kommentar von Wahchintonka ,

P.S.: Kann ein Computer intelligenter sein, wie z.b.  ein hochbegabter und sehr erfahrener Mensch? Er kann! Der Schachcomputer Deep Fritz schlug 2006 den damaligen Schachweltmeister Wladimir Kramnik. Vier Partien gingen Remis aus und zwei gewann Deep Fritz. Wie war das möglich, wo doch ein Schachcomputer vom Schach spielen so viel weiß, wie eine Kuh von Profifussball?  Doch die intelligenteste Maschine kann sich niemals selbst bewußt sein im Gegensatz zum dümmsten Menschen der Welt.

Kommentar von Wahchintonka ,

....wir sind halt biomaschinen. das ist der kleine, feine unterschied

Kommentar von grubenhirn ,

Doch die intelligenteste Maschine kann sich niemals selbst bewußt sein im Gegensatz zum dümmsten Menschen der Welt.

Wie bitte?... 

Roboter können kein Bewusstsein haben. Künstliche Intelligenz schon.

Das ist Haarspalterei!

Kommentar von Wahchintonka ,

Wer behauptet das? Du oder dein Gehirn?

Kommentar von grubenhirn ,

Keins von beidem, aber eher das Gehirn.

Ich denke nicht, dass man als Entität existiert.

Kommentar von Wahchintonka ,

"Sondern?", fragt mein Gehirn

Antwort
von anti398, 162

Sofort nicht. Aber in Zukunft sicher. Heitige Robotersysteme sind nicht Leistungsstark genug für eine KI.
Das liegt nicht an der aktuellen Prozessortechnik, sondern an der aktuellen Akkutechnik due nicht in der Lage Ist high end systeme mit strom zu versorgen, und dann auch noch die motoren für die fortbewegung des roboters.

Kommentar von Ahzmandius ,

Das hat mit Leistungsstark eher weniger zu tun. Es gibt einfach Probleme, die man mit heutigen Mitteln, Computertechnisch, nicht lösen kann, ganz gleich wie viel Leistung der Computer hätte.

Kommentar von anti398 ,

Was denn ?

Antwort
von AllHailLelouch, 136

Diese künstlichen Intelligenzen sind noch nicht in der Lage ein eigenes Bewusstsein zu entwickeln. Ein Beispiel dafür wären Videospiel K.I´s, welche ebenfalls kein Bewusstsein entwickeln. Jedoch besteht die Gefahr, dass baldige Entwicklungen ein Bewusstsein hervorrufen können und dann wird es gefährlich. 

Kommentar von NoHumanBeing ,

Ein Beispiel dafür wären Videospiel K.I´s, welche ebenfalls kein
Bewusstsein entwickeln.

Jedoch besteht die Gefahr, dass baldige Entwicklungen ein Bewusstsein hervorrufen können und dann wird es gefährlich.

Ja und nein. Es könnte durchaus passieren, dass irgendwann eine KI ein Bewusstsein entwickelt. Allerdings wird das keine "KI" sein, wie sie in Computerspielen zum Einsatz kommt, denn diese haben mit Intelligenz wirklich überhaupt nichts zu tun. ;-)

Sie suggerieren allenfalls dem Spieler, dass es sich hier um ein intelligentes "Wesen" handelt, genau wie sich hinter den meisten Wasseranimationen in Computerspielen nicht wirklich eine Fluiddynamiksimulation befindet.

Kommentar von AllHailLelouch ,

Das stimmt. War ein unglücklich gewähltes Beispiel meinerseits.

Antwort
von Ultimator2001, 123

Du meinst KI's?

Denke, es dauert noch ein weilchen bis Künstliche Intelligenzen deine Kriterien erfüllen können.

Keine passende Antwort gefunden?

Fragen Sie die Community