Warum rät ChatGPT anstatt zuzugeben, dass er etwas nicht weiß?

4 Antworten

KI-Modelle wie ChatGPT verwenden statistische Methoden, um Texte zu generieren oder zu verstehen, lernen aus großen Datenmengen und berechnen die Wahrscheinlichkeit von Wörtern oder Phrasen basierend auf dem Kontext. Allerdings sind sie nicht immer genau, besonders bei komplexen, vagen oder spezifischen Anfragen. Entwickler können verschiedene Strategien anwenden, um die Qualität und Genauigkeit zu verbessern, wie das Festlegen einer Mindestwahrscheinlichkeit oder das Einholen von Rückmeldungen. Es ist wichtig, dass die KI ehrlich ist, wenn diese etwas nicht weiß oder kann, um Glaubwürdigkeit und Vertrauen zu stärken! Aber wer gibt schon Fehler zu?

Woher ich das weiß:eigene Erfahrung
bastian455g 
Fragesteller
 08.02.2024, 13:47

Wer das wohl geschrieben hat...

0

ChatGPT hat keine gesunde menschliche Einschätzung darüber, ob es etwas weiß, oder nicht. Wenn es in dem riesigen Datensatz keine Informationen dazu findet, dann gibt es das zu, und wenn es etwas zusammenwürfeln kann, dann spuckt es das aus. Eine Wahrscheinlichkeit zu berechnen, wie sehr die Information tatsächlich stimmt, ist nicht so einfach.

Schlechte Vorgaben der Entwickler,
vermutlich wollen sie damit bezwecken das ihr Chatbot damit menschlicher wirkt.

frage ich mich schon länger, warum die Entwickler nicht eine Mindestanforderung für diese Wahrscheinlichkeit festlegen, also einen bestimmten Prozentsatz zu dem die Antwort mindestens stimmen muss.

Du verwechselst Sicherheit des nächsten Wortes, was zu dem Text davor passt, mit inhaltlicher Stimmigkeit. Die ganzen Modelle haben keinen Parameter, wie sicher sie sich sind, dass eine Erklärung passt, sondern nur für Tokens, die Sätze formen.