Habt ihr schon mal von algorithmischer Diskriminierung gehört?

4 Antworten

Ja, hab ich schon gehört. Ähnliches gab es z. B. Auch bei der früheren Entwicklung von Gesichtserkennung. Gesichter von Schwarzen wurden nicht erkannt, weil die Systeme fast ausschließlich mit Weißen trainiert wurden.

Oder Übersetzungsmaschinen, wenn sie von einer Sprache ohne Genus in eine mit übersetzen sollten. Da wurde "Führungsperson" zu "Chef", aber "Reinigungsperson" zu "Putzfrau". Grund ist, dass solche Systeme mit Wahrscheinlichkeiten rechnen.

Genauso ist es bei KI. Sie kann nur mit Daten arbeiten, die sie hat. Und wenn diese Daten Diskriminierungen, Klischees, Stereotype enthalten, dann reproduziert KI das, weil aufgrund der Vielzahl an Vorkommen sie davon ausgeht, dass mit größerer Wahrscheinlichkeit auch diese Stereotype die "richtigen" bzw. "gewünschten" Ergebnisse liefert.

Das Problem ist, dass man die bereits eingespielten Daten nicht mehr löschen oder loslösen kann, sondern man eine Balance nur erreichen würde, wenn man ausgeglichene bzw. mehr antidiskriminierende Daten einspielen würde.

Wenn man sich jetzt die Entwicklungen anschaut, wer KI vorantreibt, dann sieht man, dass Leute wie Musk, Peter Thiel etc. auch gleichzeitig massiv gegen Gleichstellung von Frauen, gegen LGBTQl und gegen Gruppen aus nicht westlichen, nicht "weißen" Staaten, vorgehen. Das dürfte kein Zufall sein, da KI definitiv Weltbilder kreieren und Menschen in ihren Einstellungen massiv beeinflussen wird.


Humanoid581 
Beitragsersteller
 20.07.2025, 17:33

Vielen Dank für die ausführliche Antwort. Es wurde auch erwähnt, dass Trump sehr für eine Deregulierung bei der KI wäre, während man in der EU an einer regulierenden KI-Gesetzgebung arbeitet. Das passt gut zu dem, was du im letzten Absatz schreibst.

Zu dem Thema wäre eine Primärquelle interessant.

Im Artikel wird behauptet, die KI habe Männer bevorzugt, weil das den bisherigen Einstellungen entspricht. Das suggeriert, die KI habe gelernt grundsätzlich, pauschal Männer zu bevorzugen.

Aber das könnte auch eine Missinterpretation sein. Die KI könnte auch gelernt haben, eben genauso zu bewerten wie Personaler und die bevorzugen im Schnitt ja auch Männer - aber eben nicht unbedingt weil es Männer sind, sondern weil es mehr Männer gibt, die auf das Profil passen.

Daher wäre es sehr interessant, wie hier ausgewertet wurde, ob die KI Männer bevorzugt (z.B. durch Bewertung identischer Bewerbungen, in denen sich lediglich das Geschlecht unterscheidet, könnte halbwegs zuverlässig sein)

Aber es ist schon davon auszugehen, dass wenn man einen Datensatz verwendet, der imbalanced ist, dass dann auch das Ergebnis imbalanced ist.

Ich denke wichtig bei so einer KI ist, dass man sie nicht auf dem erfolgreichen Bewerbungen trainiert (laut Artikel wurde das gemacht), sondern auf allen Bewerbungen und die KI soll den Erfolg vorhersagen. Dann sollte bei ausreichender Kapazität und Datenmenge die KI trotz dem Ungleichgewicht Männer nicht bevorzugen es sei denn, Bewerbungen von Männern wären in der Vergangenheit auch tatsächlich im Schnitt bevorzugt worden, was dann aber nicht mehr Schuld der KI ist


Humanoid581 
Beitragsersteller
 20.07.2025, 17:34

Vielen Dank für deine ausführliche Antwort. Guter Ansatz, was du da im letzten Absatz beschreibst!

Davor wurde schon vor über zehn Jahren gewarnt.

Das ist absolut nichts neues.

"FAZ"-Herausgeber Frank Schirrmacher beklagt auf dem DLD einmal mehr die wachsende Technisierung der Informationsbearbeitung. „Wir sind in der Auswahl der Informationen zunehmend abhängig von Maschinen“, sagte Schirrmacher

https://www.horizont.net/medien/nachrichten/-DLD-Schirrmacher-warnt-vor-dem-Diktat-der-Algorithmen-89798

https://www.saz.com/de/big-data-wie-eine-supermarktkette-den-usa-die-schwangerschaft-einer-teenagerin-noch-vor-deren-vater

KI arbeitet Ideologielos. Schwarze werden in den USA eher als Täter betrachtet wie weiße weil es statistisch stimmt. Werte sind KIs noch schlecht zu vermitteln und daher wird das noch enie ganze weile so passieren.