Frage von jmasterj82, 75

Kann ein Roboter ein Mörder sein?

Folgende hypothetische Fragestellung:

Wenn ich einen Roboter baue und ihn darauf programmiere, nach einem Zufallsprinzip beliebige Menschen entweder leben zu lassen oder zu töten, kann ich dann wegen Mordes verurteilt werden? Oder wäre dann der Roboter der Mörder, da ich ja nicht die Entscheidung einen Menschen zu töten getroffen habe sondern der Zufallsalgorithmus.

Wie wäre die Rechtslage?

Hilfreichste Antwort - ausgezeichnet vom Fragesteller
von Rocker73, 26

Hallo, der Autor Isaac Asimov hat 3 Roboterregeln aufgestellt:

1.Ein Roboter darf niemanden verletzen

2.Ein Roboter muss die Befehle eines Menschen befolgen, es sei denn sie verstoßen gegen das 1. Gesetz

Ein Roboter muss sich selbst schützen es sei denn dies verstößt gegen das 1. und 2. Gesetz

D.h du trägst die Verantwortung was der Roboter macht und oder kann !

LG

Kommentar von Rocker73 ,

Danke für den Stern!

Antwort
von MetIHaIPiIK, 22

Du hast es absichtlich Tot herbeigeführt, und da das offenbar ohne jegliche Intention als purer Langeweile oder der Unterhaltung wegen geschah, würde ich bei so etwas sogar die Todesstrafe wieder einführen.

Wenn ich jemanden erschieße, bin ich dann ein Mörder? Ich bin ja nicht die Kugel, die in seinen Körper eintaucht.

Wenn ich eine Bombe auf einen beliebigen,  belebten Ort werfe, bin ich dann ein Mörder? Ich habe mir die Menschen, die sterben ja nicht ausgesucht.

Das Mittel mit dem du diese Straftat begehst ist irrelevant, ob absichtlich gewählt oder nicht auch, ich würde es sogar härter bestrafen, wenn der Roboter per Würfelprinzip entscheidet, ob jemand des Lebens würdig ist, oder nicht. 

mfg

Antwort
von Christi88, 45

Der Roboter wäre natürlich kein Mörder, weil er ein Werkzeug ist. Eben so wie eine Waffe. Ich kann ja auch keine Todesfalle bauen, und ihr dann die Schuld geben, wenn irgendjemand reinläuft.

Antwort
von YuyuKnows, 24

Es ist so, als würde man mit einer Waffe andere Menschen erschießen - der Roboter ist die "Waffe" und der Programmierer/Erbauer bekommt natürlich die Schuld zugeschrieben.

Leider haben wir noch nicht genügend "selbstdenkende" Roboter gebaut, um dementsprechend Gesetze zu haben (auch wenn es cool wäre). 

Antwort
von EGitarre, 37

Wenn ich eine Falle baue, die zufällig eine Axt  runterkommen lässt oder nicht bin ich auch der Mörder. 

Bin jetzt zwar kein Jurastudent etc. aber Rechtsgrundlage ist, dass der Roboter so gesehen ein Werkzeug oder Gegenstand ist und keine freien Entscheidungen treffen kann und dazu auch nicht befugt ist, von daher kann er nicht als Mörder, sondern höchstens als Mordwerkzeug gesehen werden

Kommentar von jmasterj82 ,

Der Roboter trifft eine "freie" Entscheidung nach dem Zufallsprinzip, auch wenn diese nur ja oder nein lauten kann...

Kommentar von EGitarre ,

Er trifft die "freie Entscheidung" nach Ja oder Nein, das ist richtig. Ich sagte freie EntscheidungeN, damit meine ich, dass er kein Bewusstsein etc. hat und dadurch nicht Urteilungsfähig ist

Antwort
von saarzwergin, 27

Quatsch, kann man garnicht mit realem Leben vergleichen.
Da du ihn nur für diesen Zweck erschaffen hast bist du auch Schuld.

Kommentar von jmasterj82 ,

Und wenn ich den Roboter baue um mit einer Axt immer zuzuschlagen ohne darauf zu achten ob ein Mensch im Weg ist? Und er dabei versehentlich einen Menschen trifft? Wie wäre es dann?

Kommentar von saarzwergin ,

Wenn du ihn auf eine nur für ihn gebaute Straße setzt und diese dementsprechend kennzeichnest. :D ich meine man sollte halt nicht vor den Zug laufen.

Antwort
von Pangaea, 29

Wenn du den Roboter nicht gebaut hättest, würde sein/dein Opfer noch leben, oder? Wer ist also schuld?

Antwort
von Jerrycrafting, 27

Natürlich hast du ihm den Befehl gegeben. Du hast ihn programmiert einen menschen zu töten, ob zufällig oder ausgewählt ist dabei egal. Oder denkst du einer der auf der Straße sticht jemanden ab und ist unschuldig weil er "zufällig" jemanden ausgewählt hat?

Keine passende Antwort gefunden?

Fragen Sie die Community

Weitere Fragen mit Antworten