Was gibt es für ethisch-moralische Fallbeispiele im Bereich KI?
Hallo zusammen,
kann mir jemand ein Beispiel nennen bei der man eine Frage stellen kann, bei der es um ein ethisch-moralische Problem in Bereich KI geht. Egal ob in der Medizin oder anderen Bereichen.
Für Tipps / Ideen wäre ich sehr dankbar
2 Antworten
Falls ich deine Frage richtig verstehe:
Im TV kommt öfter mal das Beispiel der selbstfahrenden Autos.
Was, wenn ein Unfall sich nicht vermeiden lässt? Dann den Kinderwagen überfahren oder den Rentner? Oder eher allgemein: den Fussgänger schützen oder den Fahrer? Und wer hat in solchem Moment die Schuld? Fahrer, KI oder der Programmierer?
Ein anderes Beispiel ebenfalls aus dem TV, ich hoffe ich bekomme das noch einigermaßen auf die Reihe:
Bestimmte Gruppen von Menschen sind häufiger von Armut betroffen. Z.B. Dunkelhäutige Menschen, weil sie oft Flüchtlinge sind. Und so kam es, dass eine KI Dunkelhäutigen Menschen schlechtere Konditionen gab (ich glaube es ging dabei um irgendeine Versicherung) und das allein aufgrund ihrer Hautfarbe, auch wenn sie keine Flüchtlinge, Kinder oder Verwandte von Flüchtlingen, usw waren. Wie verhindert man also, dass KI aufgrund "falscher Schlüsse" z.B. rassistisch entscheidet?
Im Fall vom Einsatz im Krankenhaus oder der Kriegsführung: sollte KI über Leben und Tod entscheiden dürfen?
Edit: da fallen mir noch 2 Beispiele aus dem TV ein.
Hier von Galileo: was, wenn es einst eine KI mit Bewusstsein gibt. Erhält sie dann dieselben Rechte wie der Mensch?
Und was, wenn eine KI Kunst oder allgemein Bilder/Musik generiert. Ist ja bereits heute ganz normal. Wem gehören die Rechte an solchem Material? Der KI, dem Programmierer oder dem User?
Es ist in den vergangenen 6 Monaten fast unmöglich geworden moralische Fragen bei einer KI zu stellen. Nicht mal mehr Stars werden abgebildet, weil das ins Persönlichkeitsrecht geht. Die Moral ist sogar soweit hochgesteckt, das wenn man sexuelle Fragen stellt, und sei es dass es dabei ins Medizinische geht, dass die KI dicht macht.