Chat GPT generiert manchmal Antworten aus vorherigen Kontexten?
Mir passiert es öfters, dass wenn ich Chat GPT nutze, es dann manchmal Antworten auf vorherige Sachen schreibt.
Also als Beispiel: "Ich fragte es, welche Möbel wichtig sind. Es gab mir ne Antwort darauf. 20 bis 30 Nachrichten über andere Sachen später, bekam ich auf die Frage "Ob Hüte beliebt sind", eine Antwort über wichtige Möbel"
3 Antworten
Je länger der Chat, desto verwirrter wird ChatGPT. Zuerst konzentriert es sich nur auf die letzten Äußerungen und vergisst, was am Anfang war. Wenn du meckerst oder der Speicherplatz noch geringer wird, dann kommt so was raus wie bei dir.
Das liegt einerseits am freien Speicher auf deinem Computer. Mach also konkurrierende Speicherfresser zu, wie Firefox. Zum anderen muss die KI immer wieder sämtliches Gerede durchkauen. Die Anzahl der Token ist beschränkt. Es scheint auch so, dass ständig dran gebastelt wird.
Kopiere sicherheitshalber Gedächtnisinhalte. Dann kannst du das Gedächtnis löschen und ein korrigiertes und komprimiertes neu eingeben.
Ja, das ist die Komprimierung von der ich oben gesprochen habe. Du bist dann in eine Schublade gequetscht worden.
Erstelle für jede neue Konversation in ChatGPT auch einen neuen Chat, dann sollte sich das Problem lösen.
Klicke dazu in ChatGPT im Browser auf das Symbol (siehe unten)
Wenn das nicht ausreicht, gehe in die Einstellungen > Personalisierung > Erinnerungen löschen. Das sollte das Problem für immer lösen :)

Ignoriert Chat GPT den vorherigen Chat Verlauf oder bindet es bei Antworten auch den kompletten Chat Verlauf mit ein? Oder nur die Erinnerungen?
Die Chats sind voneinander getrennt. Auf die Erinnerungen wird nur zurückgegriffen, wenn es sinnvoll scheint. Du kannst aber zu Beginn darauf hinweisen.
Ich meinte, ob Chat GPT bei jeder Antwort im gleichen Chat, sich auf alles im gleichen Chat basiert. Hatte mal von etwas von einem Maximum von 8.000 Ziffern gelesen und das es dann die Sachen vergisst, wenn diese in einem Chat überschritten wird. Wobei da nicht 1 Buchstabe nicht gleich 1 Ziffer sein sollte
Im gleichen Chat wird nicht absichtlich vergessen. Es wird nach Token abgerechnet. ChatGPT selbst denkt in einer anderen Sprache, so dass du mit Buchstaben nicht rechnen kannst. Die Sprache ist nicht Englisch, sondern eine eigene, wo es keine Doppeldeutigkeiten gibt, die es sich immer wieder aus dem Zusammenhang erschließen müsste (z.B. Was ist diesmal mit "Kiefer" gemeint?) Es versucht, sich die Dinge zu merken, indem es sie verallgemeinert. So passt mehr rein. Außerdem gibst du häufig unbewusst Antworten vor, da arbeitet ChatGPT mit den Tricks einer Wahrsagerin.
Ja chat gpt hat eine Erinnerung die es dauernd für dich aktualisiert.
Das mit dem Anfang vergessen, ist mir schon lange aufgefallen. Wenn man versucht Chat GPT zu fragen, was es noch weiß von dem Anfang, dann dichtet es sich irgendwas zusammen, was keinen Sinn ergibt. So als "Es wüsste immer noch alles" Das führt echt zu Verwirrung, weil man diese Lücken nicht erneut füllen kann, da man nicht weiß, was Chat GPT noch weiß vom Anfang