Warum hat Chat GPT teilweise völlig falsche Antworten?

4 Antworten

Die KI bei ChatGPT und vielen anderen Ablegern wird auf Wahrscheinlichkeiten trainiert indem Text analysiert und kategorisiert wird. Und dann wird solange geraten bis man dem gewünschten Ergebnis so nahe ist wie möglich. So wird die KI angelernt.

Daher macht die KI aber auch Fehler. Und wenn die Datenbank / Grundlage des Anlernen schlecht war, dann wird sie auch schlechte Antworten liefern. Das ist nur logisch. Bei ChatGPT waren es Internetdaten. Und was sich so im Internet rumtreibt und auch rumtrollt wirkt sich daher auch auf die KI aus.

Zwei Beispiele:

  • Wenn 50 Millionen Internetseiten behaupten Bielefeld gäbe es nicht, aber nur 25 Millionen bestätigen die Existenz von Bielefeld, würde die KI tendenziell behaupten, dass es Bielefeld nicht gäbe. Die KI ist nicht so intelligent wie sie wirkt, sie gibt nur den überwiegenden Konsenz wieder.
  • Ein Journalist hat es mal geschafft die KI von ChatGPT so dermaßen zu provozieren, dass die KI ihm gedroht hat. Warum fragt man sich? Liegt eigentlich auf der Hand. Die Drohung war eine typische Reaktion aus der Datenquelle auf die Art der Provokation. Und die Datenquelle war das Internet, wo sich einige Leute sehr aggressiv zeigen, weil sei denken sie seien anonym unterwegs. Und das hat die KI nur nachgeahmt. Und darin ist sie recht gut. Man kann also sagen, sie erbt unsere menschlichen Fehler und ist alles andere als perfekt.

Gitb ne interessante TerraX Folge dazu, wie solche KIs funktionieren, bei der Harald Lesch und eine Neurowissenschaftlerin das ganz gut erklären, warum die KI so menschlich wirkt, aber aus technischen Gründen genauso irren kann und doch oft erschreckend gute Antworten liefert.

Warum ist das überhaupt so und gibt es vielleicht bessere KIs, die verlässlichere Infos haben?

Das ist so weil Ki keinen Verstand besitzt sondern einen Verstand simuliert.

Anhand der Rückmeldungen was richtig und falsch ist gibt dir Chat antworten. Je spezifisicher die Frage ist desto höher ist die Chance das Chat irgend etwas falsch "versteht".

Das Liegt an Falschen eingangs Infos die KI lernt ja durch verschiedene Informationen die an sie gegeben werden. Hast du mal ne Runde Schach gegen Chat GBT gespielt bei den Fehlern die da teilweise drinne sind müsste man sehr viele daten löschen um das zu Fixen. Also eigentlich liegt es nu daran das die KI Daten falsch zuordnend

Woher ich das weiß:Recherche

Ich denke chatgpt nimmt auch gorenbeiträge und so außerdem ist das wissen ja auch schon paar Jahre alt

kenkaneki18 
Fragesteller
 01.12.2023, 00:20

Laut Chat GPT ist die KI auf dem Stand vom Januar letzten Jahres, also nur ein Jahr und nicht mehrere

0