ChatGPT macht banale Fehler nach so langer Zeit
Wie kann es sein das ChatGPT nach so langer Zeit dennoch solche Fehler macht, klar es ist nur KI aber solch banale aufgaben sollte es doch trotzdem zu 100% richtig beantworten zu können.
Die frage habe ich Online gesehen und konnte es nicht glauben also habe ich es selbst probiert, keine Zusätze oder irgendetwas, das ist der gesamte chat.
2 Antworten
Die frage habe ich Online gesehen und konnte es nicht glauben also habe ich es selbst probiert, keine Zusätze oder irgendetwas, das ist der gesamte chat.
ChatGPT hat die absurde Eigenschaft, sich seinem Chat Partner anzupassen und ihm in allen Belangen recht zu geben, damit es in deinen Augen das "Perfekte Sprachmodell" ist, wofür es geschaffen wurde.
Sprich = Wenn du ChatGPT lange genug sagst, dass 1 + 1 = 3 ist, wird er dir immer wieder diese Antwort geben.
Da der Smiley keine Standardantwort von ChatGPT ist, wirst du das Sprachmodell durch deine eigenen Prompts bereits angepasst haben. Sei es in diesem oder vergangenen Chats.
Du hast also das Sprachmodell beeinflusst, dir extra eine falsche Antwort zu geben.
und ChatGPT ist keine KI. Es ist eine GUI für KI Modelle. Und die muss man wie gesagt richtig bedienen. Rechenoperationen z.B. sind mit reasoningmodellen kein Problem.
Wenn du das Model nicht auswählen kannst benutzt du die unregistrierte free version. Registrier dich, dann hast du zumindest minimales Volumen auf den modernen modellen.
ich kann das übrigends nichtmal in der unregistrierten version geschafft. Andere Vermutung: du bist doch registriert, hast aber im restlichen Gesprächsverlauf ständig solche Scherzfragen gestellt. Dann scherzt er auch mit dir.
ich bin registiert und habe einen neuen chat erstellt mit nur dieser frage
und personalisierung aktiv?
Einstellungen > Gespeicherte Erinnerungen berücksichtigen
Entweder falsches Model oder Erinnerungen aktiv. Anders lässt sich das Verhalten eigentlic nciht erklären? Eigentlich sogar nur so. 1+1= würde er auch mit nem reinen Sprachmodel ohne Rechnung aufgrund seiner Wissensdatenbank lösen. Es sieht mehr nach nem Scherz aus aufgrund von personalisierung.
man muss den Hinweis beachten . "Die Aussage kann Fehler enthalten".
Wie gesagt, das war ein neuer Chat ohne irgendwelche Nachrichten außer dieser