Frage von Ziied, 63

Roboter bedeutet Gefahr? Robotergesetze?

Hallo erstmal :DIch muss in einem Monat meine Facharbeit zum Thema Robotergesetze abgeben und ich wollte sowas wie eine Internet-Umfrage machen und euch nach eurer Meinung fragen.

Was denkt ihr? Braucht man Gesetze für Roboter oder findet ihr diese sogar unnötig?Gilt für euch die Robotik als ein offenes Gebiet oder sollte es Grenzen geben? Wieso? Sagt mir alles was ihr mit Robotern verbindet und erklärt mir eure Meinung :)Würde mir sehr weiterhelfen.

"1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.

2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.      

3.Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert."

-Asimov

Außerdem werde ich auch eine kleine Umfrage starten ein Klick hilft mir schon, aber eine Antwort umso mehr! :D

Gruß Ziied

Antwort
von Shiranam, 25
Gesetze für Maschinen? Unnötig.

Wissentlich? Was ist denn das für eine Formulierung bei Robotern? Roboter sind in ihren Handlungsweisen beschränkt. Sie können nur tun, was ihnen einprogrammiert wurde. Manche können lernen, aber nur so, wie es programmiert wurde.

Woher soll ein Roboter wissen, was ein Mensch ist? Woher soll er wissen, was "verletzen" bedeutet? Kann er den Unterschied zwischen berühren und verletzen kennen? Nein! Zudem hat er auch keine Handlungsalternative, denn die müßte ja auch programmiert sein.

Gesetze kann man nur schaffen für Menschen, bzw Programmierer, bzw Firmen. Roboter können sich aus eigenem Antrieb nicht gesetzeskonform oder gesetzeswidrig verhalten. Und es wäre ihnen auch egal, weil sie weder Moral noch Gefühle kennen.

Also: Völliger Blödsinn.

Kommentar von Ziied ,

Im Grunde hast du meine Frage ziemlich gut beantwortet. Dennoch finde ich die Formulierung "Robotergesetze" ziemlich passend, da es sich um Gesetze in Bezug auf Roboter handelt. 

Eine Frage nochmal speziell an dich Shiranam. Bist du dir wirklich so sicher, dass es unmöglich ist eine künstliche Intelligenz zu entwickeln, welche sich "von allein" weiterentwickelt und auch als eine unkontrollierbare Gefahr enden kann? Und wenn es funktionieren würde, sollte dies eingeschränkt oder sogar verboten werden?

Kommentar von Shiranam ,

Ja, ich denke es ist ziemlich einfach, unkontollierbare Maschinen zu bauen, Maschinen oder Roboter, die Menschen verletzen können. Das kann schon ein Hebekran oder eine Kreissäge. Argwohn steckt aber nicht dahinter. ;-)

Natürlich muss es dafür Vorschriften geben, dass immer Sicherheitssperren eingebaut werden. Das ist ja schon heute so.

Ich bin davon überzeugt, dass Menschen künstliche Intelligenzen bauen können, die selber lernen können, innerhalb ihrer Parameter. Die gibt es heute schon.

 Ich glaube aber nicht, dass Roboter jemals Gefühle entwickeln werden, etwa Machtgier, Mitleid, Angst, Liebe oder Hass. Sie KÖNNEN sich also nicht an Gesetze halten, weil sie die nichtmal WOLLEN könnten. Vorschriften kann es nur für die Produzenten geben.

Antwort
von David2101, 36
Robotergesetze sind auf jeden Fall notwendig!

Hört sich sinnvoll an ich programmiere und baue übrigens selber Roboter

Antwort
von noname68, 30

asimov hat sich schon lange vor unserem computer-zeitalter mit solchen fragen beschäftigt und seine berühmten roboter-gesetze erschaffen. darauf bauen sehr viele sf-filme und -geschichten auf, weil sie plausibel und logisch sind.

also erübrigt sich auch eine umfrage. oder stellt z.b. jemand den sinn und nutzen von sicherheitseinrichtungen im auto in frage?

Kommentar von David2101 ,

Ich geb dir recht aber ob ein Airbag bei 250 Sachen nich sinnvoll ist ;)

Kommentar von noname68 ,

ok, aber auch bei 200 gehst du drauf, ob du airbag, sicherheitsgurte oder eine knautschzone hast. springst du auch ohne fallschirm aus dem flugzeug?

Kommentar von Ziied ,

Mit Roboter meine ich künstliche Intelligenz, welche sich z.B. eigenständig weiterbilden und neue Funktionsweisen entwickeln kann. Die Frage ist ob sowas überhaupt möglich sei oder gar ob eine Gefahr entstehen würde. 

Antwort
von Mheetu, 21
Robotergesetze sind auf jeden Fall notwendig!

Robotergesetze sind total nötig ohne sie könnten die uns alle verletzten usw.t

Keine passende Antwort gefunden?

Fragen Sie die Community