Warum wählt die KI links?
Chatbots, die mit den Fragen des Wahlomaten gefüttert werden, wählen auf den ersten Plätzen Parteien wie die Tierschutzpartei, letzte Generation, Grüne. Je rechter die Partei desto geringer die Übereinstimmung. Die AfD bei ChatGPT abgeschlagen auf dem letzten Platz von 35 Parteien. Wie erklärt ihr euch das?
20 Stimmen
7 Antworten
Ich habe die KI selbst einfach mal gefragt, warum man von ihr überwiegend politisch linke Antworten erhält:
Die Tendenz, dass KI-Modelle bei solchen Tests oft eher „linke“ Parteien bevorzugen, könnte daran liegen, dass sie auf großen Mengen öffentlich zugänglicher Texte aus dem Internet trainiert werden. Viele dieser Texte stammen aus Medien, wissenschaftlichen Publikationen oder sozialen Plattformen, wo Themen wie Umweltschutz, soziale Gerechtigkeit oder Antidiskriminierung stark vertreten sind.
KI spiegelt nicht unbedingt eine eigene Meinung wider, sondern die Häufigkeit und Gewichtung bestimmter Positionen in den Trainingsdaten. Rechte oder konservative Positionen werden im öffentlichen Diskurs teilweise kritischer betrachtet oder sind weniger präsent, was die KI beeinflussen kann.
Außerdem orientiert sich eine KI oft an ethischen Richtlinien und gesellschaftlichen Konsensen, die in vielen Bereichen eher progressiv geprägt sind. Deswegen kommt es schnell zu einer „linken“ Ausrichtung, wenn man sie mit Wahlomat-Fragen füttert.
Dass KI-Modelle daher bei Wahltests häufiger „linke“ Tendenzen zeigen, ist weniger eine bewusste Entscheidung der KI, sondern vielmehr ein Resultat der verfügbaren Datenbasis. Konservative Ansichten sind oft weniger stark vertreten oder werden kritischer diskutiert – und genau das beeinflusst, wie die KI Muster erkennt und verarbeitet.
Künstliche Intelligenz ist künstlich, aber nicht intelligent. Eine der besten, aber auch provokantesten Beschreibung von KI ist "menschliche Dummheit in Algorithmen". Die Ergebnisse von KI werden stets von
- den benutzten Promts
- der verwendeten Datenbasis und
- ihrer Programmierung
bestimmt.
Die größte Gefahr der KI ist, dass man sie für unfehlbarer als ihre Bediener und Programmierer hält. Wer andere Ergebnisse einer KI haben will, der braucht nur die Promts zu ändern, eine andere Datenbasis zu verwenden oder benutzt eine anders programmierte KI.
Die KI analysiert das, mit dem Sie gefüttert wurde. Die meisten negativberichte gibt es über die AfD, über Klimaschutz wird überwiegend positiv berichtet. Entsprechend wertet die KI dann Klimaschutzthemen als positiv, die AfD als negativ. Deshalb landet Sei auf den letzten Platz. Würde die KI alle parteien gleichmäßig nach Ihren Programm bewerten, müssten auch andere Extremistische Partein (MLPD) mit auf den hinteren Plätzen landen.
Beim Thema Klimaschutz könnte etwas an deiner These dran sein. "Negativberichte über AfD" verstehe ich nicht. Die Wahlomatfragen nennen nicht die Namen von Parteien. Sie beziehen sich ausschließlich auf politische Positionen. Die KI kann aus der Frage keine Rückschlüsse auf einen spezielle Partei ziehen.
Die KI hält sich einfach nur an Fakten. Ende, aus.
Eine KI hält sich an ihre Programmierung, den Promts und die benutzte Datenbasis. Für alle drei Komponenten gilt das klassische GIGO und alle drei Komponenten sind von Menschen gemacht.
Die Algorithmen, auch beim Wahlomat, sind da sehr speziell und rudimentär. Ich hab da bewusst mal alles rechts gemacht. Zuwanderung begrenzen, Straftäter ausweisen. Arbeit belohnen. Aufrüsten…AfD kam an letzter Stelle 😂😂
Aufrüsten fordern viele Parteien. Alles andere wäre ja auch unvernünftig angesichts der russischen Bedrohung. AfD sieht Russland dagegen nicht als Bedrohung. Mit Arbeit belohnen ist es genauso. Ein Sozialstaat funktioniert nur, wenn genügend Leute ihren Beitrag leisten. Das sind keine speziell rechten Positionen. Schwerstkriminelle ausweisen gibt es auch breiten Konsens.