Warum wählt die KI links?

KI ist objektiv, im Gegensatz zum Wähler 55%
Anderes 20%
KI wird mit dem Gedankengut der Linken und Grünen gefüttert 15%
KI hat so gut wie alle Fakten, der Wähler nicht 5%
Die Tests der Chatbots sind manipuliert 5%

20 Stimmen

7 Antworten

Anderes

Ich habe die KI selbst einfach mal gefragt, warum man von ihr überwiegend politisch linke Antworten erhält:

Die Tendenz, dass KI-Modelle bei solchen Tests oft eher „linke“ Parteien bevorzugen, könnte daran liegen, dass sie auf großen Mengen öffentlich zugänglicher Texte aus dem Internet trainiert werden. Viele dieser Texte stammen aus Medien, wissenschaftlichen Publikationen oder sozialen Plattformen, wo Themen wie Umweltschutz, soziale Gerechtigkeit oder Antidiskriminierung stark vertreten sind.
KI spiegelt nicht unbedingt eine eigene Meinung wider, sondern die Häufigkeit und Gewichtung bestimmter Positionen in den Trainingsdaten. Rechte oder konservative Positionen werden im öffentlichen Diskurs teilweise kritischer betrachtet oder sind weniger präsent, was die KI beeinflussen kann.
Außerdem orientiert sich eine KI oft an ethischen Richtlinien und gesellschaftlichen Konsensen, die in vielen Bereichen eher progressiv geprägt sind. Deswegen kommt es schnell zu einer „linken“ Ausrichtung, wenn man sie mit Wahlomat-Fragen füttert.
Dass KI-Modelle daher bei Wahltests häufiger „linke“ Tendenzen zeigen, ist weniger eine bewusste Entscheidung der KI, sondern vielmehr ein Resultat der verfügbaren Datenbasis. Konservative Ansichten sind oft weniger stark vertreten oder werden kritischer diskutiert – und genau das beeinflusst, wie die KI Muster erkennt und verarbeitet.
Woher ich das weiß:eigene Erfahrung – Unbegrenztes Interesse an nationaler und weltweiter Politik

Künstliche Intelligenz ist künstlich, aber nicht intelligent. Eine der besten, aber auch provokantesten Beschreibung von KI ist "menschliche Dummheit in Algorithmen". Die Ergebnisse von KI werden stets von

  • den benutzten Promts
  • der verwendeten Datenbasis und
  • ihrer Programmierung

bestimmt.

Die größte Gefahr der KI ist, dass man sie für unfehlbarer als ihre Bediener und Programmierer hält. Wer andere Ergebnisse einer KI haben will, der braucht nur die Promts zu ändern, eine andere Datenbasis zu verwenden oder benutzt eine anders programmierte KI.

Anderes

Die KI analysiert das, mit dem Sie gefüttert wurde. Die meisten negativberichte gibt es über die AfD, über Klimaschutz wird überwiegend positiv berichtet. Entsprechend wertet die KI dann Klimaschutzthemen als positiv, die AfD als negativ. Deshalb landet Sei auf den letzten Platz. Würde die KI alle parteien gleichmäßig nach Ihren Programm bewerten, müssten auch andere Extremistische Partein (MLPD) mit auf den hinteren Plätzen landen.


Rennegent 
Beitragsersteller
 08.06.2024, 11:41

Beim Thema Klimaschutz könnte etwas an deiner These dran sein. "Negativberichte über AfD" verstehe ich nicht. Die Wahlomatfragen nennen nicht die Namen von Parteien. Sie beziehen sich ausschließlich auf politische Positionen. Die KI kann aus der Frage keine Rückschlüsse auf einen spezielle Partei ziehen.

KI ist objektiv, im Gegensatz zum Wähler

Die KI hält sich einfach nur an Fakten. Ende, aus.


Stefan194  14.11.2024, 12:27

Eine KI hält sich an ihre Programmierung, den Promts und die benutzte Datenbasis. Für alle drei Komponenten gilt das klassische GIGO und alle drei Komponenten sind von Menschen gemacht.

Die Algorithmen, auch beim Wahlomat, sind da sehr speziell und rudimentär. Ich hab da bewusst mal alles rechts gemacht. Zuwanderung begrenzen, Straftäter ausweisen. Arbeit belohnen. Aufrüsten…AfD kam an letzter Stelle 😂😂


Rennegent 
Beitragsersteller
 08.06.2024, 11:56

Aufrüsten fordern viele Parteien. Alles andere wäre ja auch unvernünftig angesichts der russischen Bedrohung. AfD sieht Russland dagegen nicht als Bedrohung. Mit Arbeit belohnen ist es genauso. Ein Sozialstaat funktioniert nur, wenn genügend Leute ihren Beitrag leisten. Das sind keine speziell rechten Positionen. Schwerstkriminelle ausweisen gibt es auch breiten Konsens.