ChatGPT macht banale Fehler nach so langer Zeit
Wie kann es sein das ChatGPT nach so langer Zeit dennoch solche Fehler macht, klar es ist nur KI aber solch banale aufgaben sollte es doch trotzdem zu 100% richtig beantworten zu können.
Die frage habe ich Online gesehen und konnte es nicht glauben also habe ich es selbst probiert, keine Zusätze oder irgendetwas, das ist der gesamte chat.
4 Antworten
Möglicherweise hat er einen "Unregelmäßigkeits-Algo" eingebaut, damit er nicht ständig in denselben Schienen läuft. Er soll ja "kreativ" sein.
man muss den Hinweis beachten . "Die Aussage kann Fehler enthalten".
Ich glaube er hat dich einfach nur veräppelt.
Der smiley dahinter sagt schon alles.
Laut meinen Erfahrungen kann chatgpt sehr wohl rechnen. Aber hier die Antwort meiner kI:
1 + 1 = 2.
Ganz klar, ganz einfach.
___
Du siehst chatgpt kann es.
Die frage habe ich Online gesehen und konnte es nicht glauben also habe ich es selbst probiert, keine Zusätze oder irgendetwas, das ist der gesamte chat.
ChatGPT hat die absurde Eigenschaft, sich seinem Chat Partner anzupassen und ihm in allen Belangen recht zu geben, damit es in deinen Augen das "Perfekte Sprachmodell" ist, wofür es geschaffen wurde.
Sprich = Wenn du ChatGPT lange genug sagst, dass 1 + 1 = 3 ist, wird er dir immer wieder diese Antwort geben.
Da der Smiley keine Standardantwort von ChatGPT ist, wirst du das Sprachmodell durch deine eigenen Prompts bereits angepasst haben. Sei es in diesem oder vergangenen Chats.
Du hast also das Sprachmodell beeinflusst, dir extra eine falsche Antwort zu geben.
und ChatGPT ist keine KI. Es ist eine GUI für KI Modelle. Und die muss man wie gesagt richtig bedienen. Rechenoperationen z.B. sind mit reasoningmodellen kein Problem.
Wenn du das Model nicht auswählen kannst benutzt du die unregistrierte free version. Registrier dich, dann hast du zumindest minimales Volumen auf den modernen modellen.
ich kann das übrigends nichtmal in der unregistrierten version geschafft. Andere Vermutung: du bist doch registriert, hast aber im restlichen Gesprächsverlauf ständig solche Scherzfragen gestellt. Dann scherzt er auch mit dir.
ich bin registiert und habe einen neuen chat erstellt mit nur dieser frage
und personalisierung aktiv?
Einstellungen > Gespeicherte Erinnerungen berücksichtigen
Entweder falsches Model oder Erinnerungen aktiv. Anders lässt sich das Verhalten eigentlic nciht erklären? Eigentlich sogar nur so. 1+1= würde er auch mit nem reinen Sprachmodel ohne Rechnung aufgrund seiner Wissensdatenbank lösen. Es sieht mehr nach nem Scherz aus aufgrund von personalisierung.
Wie gesagt, das war ein neuer Chat ohne irgendwelche Nachrichten außer dieser