Habt ihr schon mal von algorithmischer Diskriminierung gehört?
Ich war vorhin auf einem KI-Festival, da wurde das Thema angesprochen. Eines der genannten Beispiele war der Fall bei Amazon, wo die KI Bewerbungen von Frauen aussortiert hat - eine Fehlreaktion des Algorithmus auf die Daten, die zeigten, dass entsprechende Positionen bislang mit Männern besetzt sind. (Falls das jemand nachlesen möchte, hab ich ne Quelle rausgesucht: https://www.focus.de/finanzen/boerse/die-tuecken-der-intelligenz-amazon-schaltet-ki-ab-die-bewerbungen-von-frauen-als-minderwertig-erachtete_id_9741890.html ).
Ein anderes Beispiel war, dass eine KI bei der Kreditvergabe hispanischen Menschen schlechtere Kreditzinsen angezeigt hat, auch dazu hab ich was gefunden: https://taz.de/Kreditvergabe-nach-Hautfarbe-in-den-USA/!5089054/
Der Vortrag war aber nicht gegen KI gerichtet, es ging eher um die Fallstricke, die man bei der Entwicklung von KI beachten muss. Fand ich sehr spannend.
War euch das Thema vorher schon bewusst? Was denkt ihr darüber? Wo seht ihr eventuell weitere Fallstricke bei der Entwicklung von KI, bezogen auf mögliches Diskriminierungspotential?
4 Antworten
Ja, hab ich schon gehört. Ähnliches gab es z. B. Auch bei der früheren Entwicklung von Gesichtserkennung. Gesichter von Schwarzen wurden nicht erkannt, weil die Systeme fast ausschließlich mit Weißen trainiert wurden.
Oder Übersetzungsmaschinen, wenn sie von einer Sprache ohne Genus in eine mit übersetzen sollten. Da wurde "Führungsperson" zu "Chef", aber "Reinigungsperson" zu "Putzfrau". Grund ist, dass solche Systeme mit Wahrscheinlichkeiten rechnen.
Genauso ist es bei KI. Sie kann nur mit Daten arbeiten, die sie hat. Und wenn diese Daten Diskriminierungen, Klischees, Stereotype enthalten, dann reproduziert KI das, weil aufgrund der Vielzahl an Vorkommen sie davon ausgeht, dass mit größerer Wahrscheinlichkeit auch diese Stereotype die "richtigen" bzw. "gewünschten" Ergebnisse liefert.
Das Problem ist, dass man die bereits eingespielten Daten nicht mehr löschen oder loslösen kann, sondern man eine Balance nur erreichen würde, wenn man ausgeglichene bzw. mehr antidiskriminierende Daten einspielen würde.
Wenn man sich jetzt die Entwicklungen anschaut, wer KI vorantreibt, dann sieht man, dass Leute wie Musk, Peter Thiel etc. auch gleichzeitig massiv gegen Gleichstellung von Frauen, gegen LGBTQl und gegen Gruppen aus nicht westlichen, nicht "weißen" Staaten, vorgehen. Das dürfte kein Zufall sein, da KI definitiv Weltbilder kreieren und Menschen in ihren Einstellungen massiv beeinflussen wird.
Vielen Dank für die ausführliche Antwort. Es wurde auch erwähnt, dass Trump sehr für eine Deregulierung bei der KI wäre, während man in der EU an einer regulierenden KI-Gesetzgebung arbeitet. Das passt gut zu dem, was du im letzten Absatz schreibst.
Zu dem Thema wäre eine Primärquelle interessant.
Im Artikel wird behauptet, die KI habe Männer bevorzugt, weil das den bisherigen Einstellungen entspricht. Das suggeriert, die KI habe gelernt grundsätzlich, pauschal Männer zu bevorzugen.
Aber das könnte auch eine Missinterpretation sein. Die KI könnte auch gelernt haben, eben genauso zu bewerten wie Personaler und die bevorzugen im Schnitt ja auch Männer - aber eben nicht unbedingt weil es Männer sind, sondern weil es mehr Männer gibt, die auf das Profil passen.
Daher wäre es sehr interessant, wie hier ausgewertet wurde, ob die KI Männer bevorzugt (z.B. durch Bewertung identischer Bewerbungen, in denen sich lediglich das Geschlecht unterscheidet, könnte halbwegs zuverlässig sein)
Aber es ist schon davon auszugehen, dass wenn man einen Datensatz verwendet, der imbalanced ist, dass dann auch das Ergebnis imbalanced ist.
Ich denke wichtig bei so einer KI ist, dass man sie nicht auf dem erfolgreichen Bewerbungen trainiert (laut Artikel wurde das gemacht), sondern auf allen Bewerbungen und die KI soll den Erfolg vorhersagen. Dann sollte bei ausreichender Kapazität und Datenmenge die KI trotz dem Ungleichgewicht Männer nicht bevorzugen es sei denn, Bewerbungen von Männern wären in der Vergangenheit auch tatsächlich im Schnitt bevorzugt worden, was dann aber nicht mehr Schuld der KI ist
Vielen Dank für deine ausführliche Antwort. Guter Ansatz, was du da im letzten Absatz beschreibst!
Davor wurde schon vor über zehn Jahren gewarnt.
Das ist absolut nichts neues.
"FAZ"-Herausgeber Frank Schirrmacher beklagt auf dem DLD einmal mehr die wachsende Technisierung der Informationsbearbeitung. „Wir sind in der Auswahl der Informationen zunehmend abhängig von Maschinen“, sagte Schirrmacher
KI arbeitet Ideologielos. Schwarze werden in den USA eher als Täter betrachtet wie weiße weil es statistisch stimmt. Werte sind KIs noch schlecht zu vermitteln und daher wird das noch enie ganze weile so passieren.