Warum labert Chatgpt nur wirres Zeug?
Also ChatGPT ist manchmal echt sehr nützlich, vorallem fürs programmieren, jedoch zweifel ich manchmal an der richtigkeit der aussagen, natürlich wurde chatgpt 2021 trainiert und kann danach nichts mehr wissen, auch wenn gesagt wird, dass er noch trainiert wird, jedoch sollte er einfach sagen, dass er die antwort nicht weiß und nicht einfach irgendetwas erzählen. Hier ein Beispiel:
Was sagt ihr dazu? Warum ist das so? Vertraut ihr ChatGPT noch?
3 Stimmen
5 Antworten
AI neigt zu Halluzinationen. Dann entstehen solche Texte, die zwar plausibel klingen, aber keine korrekten Informationen enthalten.
Mehr dazu auch hier:
https://dl.acm.org/doi/pdf/10.1145/3571730
Ich hab den Schmarrn noch nie genutzt und dabei wird es auch bleiben. Es sollte eigentlich von vorn herein bekannt gewesen sein, dass eine künstliche "Intelligenz" nur das nachplappert, was sie irgendwie mal von menschlichen Nutzern vorgegeben bekommen hat. Im Grunde genommen ist es also bloß eine Formulierungshilfe.
Ich vertraue ChatGPT genau so viel wie einen anderen Menschen.
ChatGPT ist nicht dumm oder sonst was, es ist ein Gehirn. Es funktioniert genau wie du. ChatGPT dachte er hatte recht und gab dir eine Antwort. Genau so tuen menschen es auch.
Was du erwartest von diesem Gehirn ist dass er noch ein Bewusstsein bekommt. Um zu erkennen wann er genügend Informationen hat und wann nicht, um eine qualifizierte Entscheidung zu treffen ob seine Antwort auch der Realität entspricht.
Im moment ist es aber so dass wir ein Gehirn (GPT) haben mit eine gewisse Menge Gelerntem und die Schnittstelle die wir zu diesen Gehirn benutzen (ChatGPT) ERZWINGT eine Antwort. Dass heißt, wenn eigentlich keine treffende Antwort vorhanden ist wird trotzdem eine generiert.
Ich verstehe deinen Punkt, natürlich muss es nicht so sein, dass er versteht wann er eine sichere antwort hat und wann nicht, die technik ist vielleicht einfach noch nicht so weit, aber dass er mir 10mal hintereinander die gleiche falsche Tabelle zu einer einfachen aussagenlogik aufgabe schickt und ich ihn immer auf sein fehler hinweise und er mir dann sagt, oh ja tut mir leid dass ich dich verwirrt habe und dann schickt er mir die exakt selbe falsche tabelle nochmal, dass verstehe ich nicht
Ich habe deine Frage an die KI gestellt und das ist ihrer Antwort.

Mit trauen hat das wenig zutun und das "tatsächlich" lässt schon vermuten, dass du ChatGPT eingeredet hast, dass dem so ist.
Künstliche Intelligenz ist ein schönes Buzzwort aber letztlich sind das nur Algorithmen die dynamische Verzweigungen haben und mögliche Ausgaben klassifizieren bzgl. ihrer Wahrscheinlichkeit.
ChatGPT ist nicht dazu da die Wahrheit zu sagen oder ein Ersatz für anderes Wissen. Und vor allem fürs Programmieren kann ich den Kram z.B. gar nicht gebrauchen. Maximal zur Erstellung von irgendwelchen Boilerplate Sachen oder eben um kleine Beispiele für gängige APIs auf einer Seite zu haben, anstatt auf verschiedenen Seiten danach zu suchen.
Am Ende brauch ChatGPT immer noch wen am anderen Ende, der sich mit der Materie wirklich auskennt, der die Ergebnisse kontrollieren oder mit zusätzlichen Anweisungen anpassen kann.