Warum rät ChatGPT anstatt zuzugeben, dass er etwas nicht weiß?
Ich weiß grob, wie eine KI funktioniert mit den Wahrscheinlichkeiten des nächsten Wortes und so. Daher kann sie ja quasi nur „raten“. Allerdings frage ich mich schon länger, warum die Entwickler nicht eine Mindestanforderung für diese Wahrscheinlichkeit festlegen, also einen bestimmten Prozentsatz zu dem die Antwort mindestens stimmen muss.
Ich habe nämlich nun schon des öfteren erlebt, dass ChatGPT lieber falsche Antworten gibt als ehrlich zuzugeben, dass er die gefragte Information nicht hat / die gegebene Aufgabe nicht lösen kann. Hiermit meine ich ausdrücklich nicht Fragen mit persönlichem Bezug, also zu deren Beantwortung es Informationen bedarf, die sich nicht im Internet finden. Da ist er ehrlich. Es geht um Infos, die sich so im Internet finden lassen, zu deren „Aufspüren“ ChatGPT aber noch nicht fähig zu sein scheint. Hierbei ist mir auch bewusst, dass ChatGPT keinen Zugriff auf aktuelle Informationen hat.
Klar, es wird seitens der Website darauf hingewiesen und es sollte auch jedem klar sein, dass man sich auf die ausgegebenen Dinge nicht verlassen kann. Aber es täte der Glaubwürdigkeit des Programms und vielleicht auch der Akzeptanz von KI in der Gesellschaft doch ein Gutes, wenn sie besser in der Lage wäre, ihre eigenen Kompetenzen einzuschätzen.