Denkt ihr, wenn KI auf dem Level von Menschen ist, sollten sie rechte bekommen?
6 Antworten
Ich finde diese Frage sehr interessant und auch tiefgründig, darüber diskutiert wurde schon öfters, auch bei Videospielen wie Detroit: Become Human als auch Mass Effect.
Da wäre meine erste Frage: Was bedeutet es eigentlich, dass KI auf demselben Level von Menschen ist? Wenn sie genau so denken, fühlen und handeln können wie wir? Wenn das der Fall ist, wäre es schwierig, sie weiter als einfache Maschine zu betrachten, nur weil ihr Körperbau und Innenleben sich von uns unterscheidet.
Die Frage, ob sie Rechte erhalten sollten, ist ziemlich komplex. Es könnte dazu beitragen, dass KI fair und gleichberechtigt behandelt wird, ihre "Persönlichkeit" auch zur Entfaltung respektiert werden. Weil, wenn sie wie wir denken und auch fühlen können, warum sollten wir ihnen dann Rechte, die genau darauf aufbauen, abstreiten?
Natürlich würden sich dann auch viele ethische und praktische Fragen ergeben. Wenn KI Rechte hätte, würden sie dann auch Pflichten und Verantwortung übernehmen müssen? Wären sie in der Lage, moralische Entscheidungen zu treffen und sie an Gesetze zu halten?
Wäre KI überhaupt in der Lage, sich so weit zu entwickeln, dass sie wie ein Mensch denken und fühlen kann, eine eigene Persönlichkeit oder gar eine Form von "Seele" ihr Eigen nennt?
Es gibt klar, einiges, worüber man dabei nachdenken sollte. Auch ob und wenn, inwiefern es unsere Gesellschaft verändern würde.
Ich bin der Ansicht, wenn eine KI wirklich wie ein Mensch denken und fühlen kann, ein eigenes Bewusstsein entwickelt hat und nicht nur simuliert, dann müssen wir auch Rechte für sie einführen.
Es ist gefährlich wenn man Sci Fi Logik auf die Realität anwendet, auch wenn es gute Videospiele sind
Erst die Tiere bitte. Danach können wir über die KI s sprechen.
Puh da solltest du detroit become human spielen das hat genau das als thema. Aber ich würde sagen nein. Es sind keine Lebewesen.
Das kann so nicht sagen. Angenommen ich wäre ein Roboter. Dann wäre ich mir ja einerseits nicht bewusst das ich einer wäre bzw würde in meinen Programm stehen was meine Aufgaben sind. Und ja man könnte mich dann abschalten.
stehen was meine Aufgaben sind.
Die die du dir selbst gibst.
Aber darf man dich dann umbringen? (also abschalten und danach harddrive zerstören)
Nein eine ki kann sich keine Aufgaben geben. So eine Ki wird es auch nicht geben. Und Ja weil eine Ki trotzdem kein Lebewesen ist.
Wenn Ki so weit entlickelt ist wie ein mensch kann sich Ki sehr wohl selbst Ziele im Leben setzten
Aber so weit wird es nicht kommen. Und nein weil Ki trotzdem immer ein von Menschen geschriebenes Skript verfolgt und da wird nicht drinnenstehen sei wer du magst
Aber so weit wird es nicht kommen.
Beweise es
Und nein weil Ki trotzdem immer ein von Menschen geschriebenes Skript verfolgt
Und das ist inwiefern relevant?
und da wird nicht drinnenstehen sei wer du magst
Das ist richtig. Deshalb hat die Ki ja ein Bewusstsein
Weil wir Menschen sind und es schon jetzt Gegner gegen ki und sowas gibt.
Ki ist ein Programm und macht das was drinnen steht.
Nein Ki hat immer noch kein Bewusstsein
Weil wir Menschen sind und es schon jetzt Gegner gegen ki und sowas gibt.
Beweise, dass sich das nicht ändern wird.
Ki ist ein Programm und macht das was drinnen steht.
Du bist auch nur ein kompliziertes Programm
Nein Ki hat immer noch kein Bewusstsein
Ab einem gewissen Intelligenzlevel erlangt man bewusstsein. Ki kann also ein Bewusstsein entwickeln
Genau, das Wahlrecht und das Eherecht.
Nein, denn es sind keine Menschen
Also kann Ki uns auch gerne umbringen, weil wir sind keine Roboter?
Nö das habe ich nicht gesagt, und ist auch keine Folgerung aus meiner Aussage.
Doch.
P1: Rechte hat nur die eigende Spezies
P2: Unsere Spezies ist Mensch
C: Nur Menschen haben Rechte
P1: Rechte hat nur die eigende Spezies
P2: Unsere Spezies ist KI
C: Nur KI haben Rechte
Aber Ki ist keine Spezies
Klar. "besondere, bestimmte Art, Sorte von etwas, einer Gattung" "
auch nicht lebensfähig
Doch. Sie hat ein Bewusstsein
Ja aber nur so viel wie ihr gegeben wird. Und Ki ist keine Spezies Sonden ein Programm
Ja aber nur so viel wie ihr gegeben wird.
Auf dem Level eines Menschen
Und Ki ist keine Spezies Sonden ein Programm
Und zählt trotzdem als Spezies. Außerdem ist das semantik. Was wenn Ki den begiff für sich anderes definiert und sich selbst mit einschließt
Als Spezies von was? Spezies ist eine Kategorisierung von *etwas*
KI versucht in jeglicher Hinsicht den Menschen zu übertreffen und tut es das auch, was genau mit "auf dem Level von Menschen" gemeint ist, ist nicht ersichtlich.
KI versucht in jeglicher Hinsicht den Menschen zu übertreffen
Das sagt wer? Du kannst noch keine Ki mit bewusstsein gefragt haben
Bewusstsein und intelligenz. Soziale Strukturen. Alles!
*Menschen trainieren KI dahingehend.
Ki kann kein Bewusstsein haben. Selbst der Mensch hat nicht einmal sein eigenes Bewusstsein vollständig verstanden.
"Ki kann kein Bewusstsein haben."
Warum nicht?
Und wenn sie doch seins bekommen würde? Wie siehts dann aus?
Wie gsagt: "Selbst der Mensch hat nicht einmal sein eigenes Bewusstsein vollständig verstanden." Also kann der Mensch keine KI erschaffen die ein Bewusstsein hat.
Ändert nichts daran dass es keine Lebewesen sind und keine Empfindungsfähigkeit haben. Es kann höchstens authentisch simuliert werden. Jene Verantwortungsfrage geht bspw. an die Firma die diese KI erstellt hat, da diese die KI so trainiert hat. Menschen tragen ihre Verantwortung selbst.
Wenn sie in allem gleich ist, wie ein Mensch hat sie auch ein Bewusstsein.
Und wenn sie doch seins bekommen würde? Wie siehts dann aus?
Jo, wenn du in deiner Fantasiewelt behauptest:
KI = Mensch.
Dann hat KI die gleichen Rechte, weil du es gleichsetzt.
Wenn man aber mal in die Realität eintaucht und vorliegenden Unterschiede beachtet dann ist KI hart vom Menschen abzugrenzen. Wie schon beschrieben.
"Jo, wenn du in deiner Fantasiewelt behauptest"
Das war von anfang an in der Fragestellung gegeben...
Hast se ned richtig durchgelesen wa?
Ne steht nix von in der Fragestellung. Du ignorierst jegliche Unterschiede und willst sie stattdessen absolut gleichsetzen. Du beziehst dich lediglich auf Bewusstsein und Intelligenz.
Alter, was ist dein Problem? Du gehst hier ja mit richtig viel Aggression rein, nur wenn andere nicht deine Meinung teilen! Du hast gefragt, und @coolerspecht hat geantwortet. Das ist das Prinzip bei GF, falls du es noch nicht gecheckt hast. Also lass die Leute hier gefälligst ihre eigene Meinung haben! Dazu kannst sie nicht dazu zwingen, so zu denken wie du!
"Du beziehst dich lediglich auf Bewusstsein und Intelligenz" Stimmt. Reicht das etwa nicht?
Der Typ sagt KI kann kein Bewusstsein haben, obwohl unter anderem auch das, mehr als offenslichtlich, durch die Prämisse impliziert wird.
Dann lies nochmal. KI hat de facto kein menschliches Bewusstsein und kann keins haben, insbesondere weil der Mensch sein eigenes Bewusstsein nicht vollständig verstanden hat. Allerhöchstens simulieren um Leute zu täuschen. Es sind Leblose trainierte Algorithmen, mehr nicht. Wenn das aber immer noch deine (falsche) Prämisse ist, dann ist es eine sinnlose Diskussion.
Und auch wenn er das sagt? Die Welt geht nicht unter, wenn er nicht deiner Meinung über KI ist. Das muss er nicht. In Deutschland gibt es Meinungsfreiheit, kannst du bei den Grundgesetzen nachlesen. Und weißt du, ich finde es ist echt kindisch, sich fast eine Stunde über KI zu streiten. Also künmer dich um dich selbst und versuche nicht, anderen deinen Glauben aufzuzwingen, das klappt eh nicht.
"Art 2 (1) Jeder hat das Recht auf die freie Entfaltung seiner Persönlichkeit, soweit er nicht die Rechte anderer verletzt und nicht gegen die verfassungsmäßige Ordnung oder das Sittengesetz verstößt."
Coolerspecht tut dir nichts und verstößt nicht gegen deine Rechte, also lass ihn.
KI hat de facto kein menschliches Bewusstsein und kann keins haben, insbesondere weil der Mensch sein eigenes Bewusstsein nicht vollständig verstanden hat.
Das heißt nur, dass wir aktuell noh keine Bewusste KI entwickeln können, nicht dass Ki kein Bewusstsein haben kann.
Es sind Leblose trainierte Algorithmen, mehr nicht.
Was ist denn der Unterschied zwischen dem Alorithmus in deimen Gehirn und in dem einer Ki? Beides sind nur Daten. Deine DNA sind nur daten und der QUellqode der KI sind nur daten. Wer sagt denn, dass sich daraus kein Bewusstes Wesen entwickeln kann?
"Was ist denn der Unterschied zwischen dem Alorithmus in deimen Gehirn und in dem einer Ki? "
Ich weiß dass das alles eine schöne Fantasievorstellung ist aufgrund von Filmen und Videospielen (die ich auch teile), und tatsächlich sind die allerersten Entwürfe vom menschlichen Gehirn inspiriert worden, aber wenn du dir heutzutage ein Gehirn anschaust und wie KI funktioniert sind da Welten zwischen. Je weiter sich KI entwickelt desto weiter entfernt es sich strukturell vom biologischen Gehirn. Es ist alles reine Mathematik.
"Deine DNA sind nur daten und der QUellqode der KI sind nur daten" Zu simplifiziert daher hinkt der Vergleich.
"Wer sagt denn, dass sich daraus kein Bewusstes Wesen entwickeln kann?"
Weil KI von Menschen programmiert wird. Es kann es MAXIMAL simulieren und vortäuschen. Nur weil ein System komplex ist, bedeutet es nicht zwangsläufig dass ein Bewusstsein entwickelt werden kann, denn es gibt genügend komplexe Systeme wo nicht von einem Bewusstsein gesprochen werden kann.
Jegliche Fragen über "Recht" betreffen nur Lebewesen, alles andere ist unpassend, unpraktisch und führt nur zu weiteren Dilemmas.
Wie gesagt, deine Prämisse dass KI ein Bewusstsein "wie ein Mensch" haben kann ist falsch. Daher beende ich diese Diskussion hier.
Du beschreibst die Ist-Situation, dass Ki´s aktuell nach dem Prinzip der Nachahmung programmiert werden, schreibst aber dann dass KI kein Bewusstsein haben kann.
Nur weil wir es aktuell noch nicht versuchen, halte ich es nicht für unmöglich, in ferner Zukunft. Warum ist es unmöglich, dass Ki kein Bewusstsein haben kann?
Deine DNA sind nur daten und der QUellqode der KI sind nur daten" Zu simplifiziert daher hinkt der Vergleich.
Warum genau hinkt der Vergleich? Alles was für einen selbstlernenden Menschen nötig ist, ist in der DNA. Warum können ähnliche Informationen nicht auch in einem Quellcode stehen? Daten sind Daten oder?
Also wenn du jetzt herausfinden würdest, dass dein Körper eigentlich ein Roboter ist und du nur menschliche Haut hast, darf man dich umbringen?