Wodurch passieren Chat GPT Fehler?

4 Antworten

ChatGPT ist wie jedes andere LLM ein Modell welches deinen Satz nimmt, in Tokens zerlegt, diese verarbeitet, und am Ende eine Wahrscheinlichkeitsverteilung produziert welche dir angibt welches Word am Wahrscheinlichsten ist.

Im Prinzip macht das Model also nix als zu raten welches Wort als nächstes kommt - ein wirkliches "Verständnis" hat es nicht.

Was du machen kannst, ist beispielsweise die "Temperatur" eines Modells erhöhen, dann nutzt es nicht immer das wahrscheinlichste nächste Wort, sondern kann auch mal ein weniger wahrscheinliches nutzen -> Dann bekommst du "kreativere" antworten.

Und die ganzen Sätze die dir das LLM produziert sind im Endeffekt nur dadurch entstanden, dass die Gewichte des Modells durch enorme Mengen an Trainingsdaten angepasst wurden -> Quasi den ganzen kram der auch im Internet steht.

Und gerade Reddit wird enorm oft als Quelle benutzt, und da steht ja bekanntlich nicht nur schlaues zeugs.

ChatGPT macht Fehler, weil es auf Wahrscheinlichkeiten basiert und nicht auf echtem Verständnis. Es nutzt große Datenmengen, kann aber Fakten falsch kombinieren oder veraltete Fakten nutzen. Je komplexer oder unspezifischer die Frage, desto größer die Fehlerchance.


Maxi10282 
Beitragsersteller
 19.06.2025, 13:46

Danke, das klingt plausibel.

der meiste Grund sitzt vor dem Bildschirm weil er denkt die KI heißt "ChatGPT" und keine Ahnung hat was die Modelle dahinter bedeuten und wie sie funktionieren. In den meisten Fällen ist das Problem gelöst indem man die entsprechende KI für das entsprechende Problem auswählt und die Frage richtig formuliert.

Aktuell haben wir noch keine AGI, also muss der Nutzer das tun.

Schreib doch einfach mal was du gefragt hast, welche falsche Antwort kam und welches Model zu verwendet hast (und ich rate jetzt einfach mal, es war gpt-4o bzw. unregistriert und damit gpt-4o).


Maxi10282 
Beitragsersteller
 19.06.2025, 14:11

Kann es dir leider nicht mehr genau sagen, aber kann mich erinnern, dass ich mal zum Thema Fußballgeschichte eine falsche Antwort bekommen habe. Und ja, ich rede vom Standardmodell.

geheim007b  19.06.2025, 15:17
@Maxi10282

halluzinieren ist ein typisches problem von gpt-4o. Es ist hervorragend sätze zu verstehen und zu bilden, aber es macht oft Fehler z.B. beim umtransformieren von Daten oder der richtigen Einordnung. Die Antwort hört sich immer noch hervorragend an, aber kann halt auch falsch sein.

Schönes Beispiel: schreibe mir einen Spielbericht für das Spiel XY vom Fußballverein Z..... dort bringt er schonmal durcheinander wer für wen spielt. Reasoningmodelle wie z.B. o4-mini (das o vor der Zahl) gleichen diese Dinge dann nochmals ab und korrigieren sie. Was auch hilft ist Kontext wie z.B. eine Spielerliste der Teams.

Mit GPT-5 dürfte es so weit sein dass wir eine AGI haben, sprich ein Model für alle aufgaben (das ggf. intern delegiert an da richtige Model), derzeit klappt das aber noch nicht und die richtige Anwendung von KI ist gefragt.

Das ist ja das Problem mit einer KI, man weiß es nicht! Niemand, noch nicht mal der Programmierer, kann sagen warum die KI diese und nicht jene Antwort gibt.