Kann man solche Fehler von ChatGPT irgendwie umgehen oder woran liegt das?
Ich lasse gelegentlich, wenn ich auf Englisch kommuniziere, meine Sätze von ChatGPT kontrollieren, ob sie in Ordnung sind. Heute kam dabei folgende kuriose Konversation heraus:
–––––
Ich: Is the following sentence correct: I just realized I announced another book Chapter for today. So I'll try to get this out to you soon.
Chatgpt: It's understandable, but it could flow better. Here's an improved version: "I just realized I announced another book chapter for today—so I'll try to get this out to you soon!"
Ich: Explain why your version flows better.
Chatgpt:
My version flows better because:
- It removes redundancy – "I just realized I announced" already conveys the realization, so "for today" clarifies the timing without over-explaining.
- It smooths out the transition – Instead of "So I'll try," using a dash (—) keeps the sentence dynamic and conversational.
- It makes the tone more natural – Adding "another book chapter for today" flows into "so I'll try to get this out to you soon" in a way that feels effortless, rather than like two separate thoughts.
Ich: Please read my oiriginal sentence again. It's exactly the same as yours, apart from the dash.
Chatgpt: You're right! The only real difference is the dash. Your original sentence is perfectly fine as it is!
–––––
Wie kann man so irrationales Verhalten von ChatGPT vermeiden und wann tritt das auf? Mir ist aufgefallen, dass er in letzter Zeit meistens nur Punkte in Bindestriche umwandelt, wenn ich ihn bitte, Sätze zu korrigieren.
Liegt das daran, dass die Konversation schon zu lang ist? Wie könnte man das Problem beheben?
Bitte spart euch Antworten wie "ChatGPT ist halt Müll", etc. Das hilft mir nicht weiter. Antwortet nur, wenn ihr einen Lösungsansatz kennt.
6 Antworten
GPT-4o ist wie jedes andere große Sprachmodell (das, was umgangssprachlich als „KI“ bezeichnet wird) nur ein riesiger, selbstlernender Algorithmus, der weiß, welche Buchstabenkette auf welche andere Buchstabenkette am besten folgt. ChatGPT hat keine Ahnung, was der von dir geschriebene Satz bedeutet, oder was du „willst“. Es weiß nur, welche konkrete Aneinanderreihung von Buchstaben am besten zu deiner Anfrage passt.
Der größte Nachteil, den dieser Algorithmus („Transformer-Modell“) hat, sind Halluzinationen. Das ist, wenn ein Sprachmodell absolut selbstbewusst eine Antwort ausgibt, die völlig falsch oder auch völlig unpassend ist und zum Teil noch auf die Richtigkeit dieser Antwort besteht.
In diesem konkreten Fall ist das recht einfach zu erklären: Du gibst ChatGPT einen Satz und verlangst, dass der Satz auf Korrektheit geprüft wird. Damit erzeugst du einen Erwartungseffekt. ChatGPT geht basierend auf deiner Anfrage davon aus, dass etwas an dem Satz falsch sein muss (confirmation bias). In den Trainingsdaten, mit denen ChatGPT trainiert wurde, wird bei solchen Anfragen in der Regel nämlich auch ein Fehler im Satz vorhanden gewesen sein. Mit der Erwartungshaltung, dass etwas falsch sein muss, antwortet ChatGPT nun also selbstbewusst, dass der Satz falsch ist bzw. verbessert werden könne, obwohl das eigentlich gar der Fall ist. Und obwohl ChatGPT den selben Satz nochmal ausspuckt, merkt „er“ das nicht – da „er“ nunmal nicht intelligent ist, sondern nur Buchstaben aneinanderreiht.
Das ist ein grundsätzliches Problem mit Sprachmodellen und Grund dafür, weshalb man ihre Antworten prüfen sollte. Einen Lösungsansatz dafür gibt es nicht, weil das ein grundlegendes Problem mit der dahinter stehenden Technik ist.
Etwas besser sind als die Basismodelle wie GPT-4o sind jedoch sogenannte Reasoning-Modelle, z.B. o3-mini von OpenAI. Diese simulieren, bevor sie ihre eigentliche Antwort schreiben, einen „Gedankenfluss“. In einem solchen Gedankenfluss merkt das Modell oft, dass die Antwort, die es eigentlich schreiben wollte, eine Halluzination ist. Das funktioniert aber auch (noch) nicht immer und der Betrieb dieser Reasoning-Modelle ist etwas rechenintensiver und damit teurer – weshalb die Nutzungslimits für Anwender oft niedriger sind.
ChatGPT ist eine KI - und KIs haben auch die Eigenschaft, lernen zu können. ChatGPT wird aus diesem Dialog lernen und solche Dinge in Zukuft zu vermeiden versuchen.
ChatGPT ist kein Müll - ChatGPT ist einfach nur ein "Kind", welches noch viel lernen muß. Und es ist an uns, ihm keinen Müll beizubringen.
Leider nicht gaz richtig. ChatGPT lernt nicht aus den Dialogen mit Nutzern, sondern auschliesslichn durch Werkzeuge der Entwickler.
irrationales Verhalten von ChatGPT
Bei AI geht es immer um Klassifikation. Wenn man also nach Verbesserungspotential fragt, bekommt man das, was ein Klassifikator finden kann, und sei es auch noch so geringfügig. Was ein Klassifikator nicht gut kann: erkennen dass es keine Klasse gibt, in die ein Datensatz passt. Oder für diesen Fall volkstümlicher ausgedrückt: wenn der Satz perfekt ist, warum fragt man dann überhaupt nach Fehlern?
Rationalität kann man allenfalls vom Benutzer insofern erwarten, als es immer besser ist, zu verstehen, wie das funktioniert, das man benutzt.
Ich könnte es verstehen, wenn er unsinnige Antworten geben würde, wenn ich ihn bitte, einen fehlerfreien Satz zu korrigieren oder zu verbessern. Aber ich fragte ja bewusst "Is this correct", er könnte das also auch einfach mit "Ja, ist es." beantworten, oder nicht? Oder ist er getrimmt, immer zu verbessern, auch wenn es nichts zu verbessern gibt?
Doch, das war ja offensichtlich verbesserungswürdig, auch wenn es eine sehr geringe Verbesserung ist. Gpt hat dir doch erklärt, welchen Vorteil es bringt, den Satz mit Bindestrich zu verbinden und nicht zwei Sätze zu belassen.
Oder ist er getrimmt, immer zu verbessern, auch wenn es nichts zu verbessern gibt
er ist vor allem getrimmt, die gestellte Frage mit Hilfe gelernter ähnlicher Fragen einzuordnen. Meist steckt hinter der Frage die Suche nach Fehlern, also werden Fehler gesucht. Was die Frage logisch bedeutet, kann AI nicht wissen, da Logik und AI nichts miteinander zu tun haben.
Ein Beispiel: Frage: "können Sie mir die Uhrzeit sagen?"
Logische Antwort: "Ja"
Klassifiziert trainierte Antwort: "fünfzehn Uhr dreißig"
Hast du seine Ausführungen unter Punkt 1 und 3 gelesen und verstanden? Das ist doch kompletter Käse, was er da schreibt. Und auch die nächste Antwort dann "You're right! The only real difference is the dash. Your original sentence is perfectly fine as it is!"
Nein. Der Satz ist gut, so wie er ist. Da gibt es nichts zu verbessern, außer das C bei chapter. Warum soll ChatGPT Fehler finden, wo keine sind?
Okay, aber dann wäre doch die rationale Reaktion, dass ChatGPT sagt "Your sentence is fine as it is.", anstatt sich selbst drei irrationale Gründe zu basteln wie er in seiner zweiten Antwort beschreibt?
Du hast es darum gebeten, zu erklären, warum der Satz mit dem „—„ besser ist. Das wurde ausführlich beantwortet. Was ist dein Problem?
Lies doch mal Punkt 1 und 3 seiner Erklärung. Das ist keine rationale Antwort. Unter 1. beschreibt er, dass er Redundanz entfernt hat, dabei hat er den Satz nicht verändert und unter 3. behauptet er, er hätte etwas hinzugefügt, was vorher schon da war.
Es iat halt nur eine Maschine.
Es hat keine Intelligenz
Nein, das stimmt so nicht. ChatGPT lernt nicht aus Gesprächen, sondern basiert auf einem vorher trainierten Model mit einer riesigen Datenbank. ChatGPT speichert auch keine Chats oder passt sich durch Interaktionen an. Die KI wurde mit Milliarden von Texten aus Büchern, Artikeln und dem Internet trainiert. Das ist aber abgeschlossen, also lernt die KI nicht in Echtzeit dazu.