Wieso gilt das nicht als Lesen?

4 Antworten

Das Problem bei Chat GPT ist das die Informationen nicht stimmen müssen. Du kannst es ja mal ausprobieren, lasse dir ein Datum von einen Geschichtlichen Ereignis nennen und behaupte einfach das dieses Datum nicht stimmt.

Chat GPT ist so programmiert das er dir zustimmen wird um höfflich zu sein.

In einen Buch stehen die Fakten schwarz auf weiß...aber ich gebe zu, auch in einem Buch können Fehler stehen


Jensen1970  13.04.2025, 07:53

Auch Bücher lügen

Genial1233 
Beitragsersteller
 13.04.2025, 05:30

Chatgpt ist korrekt, wenn man fragt: Wie viele Einwohner in Island? Wie kamen sie zu Island?

Chatgpt ist auch insbesondere korrekt, wenn man auffordert, dass er recherchiert und die Ergebnisse mit Quellen zitiert.

Redekunst  13.04.2025, 05:32
@Genial1233

Leider nicht immer, ich würde immer gegenprüfen und mich nicht zu 100% darauf verlassen. Chat GPT greift auf Daten zu die von Menschen erstellt wurden, und Menschen machen halt Fehler

Genial1233 
Beitragsersteller
 13.04.2025, 05:33
@Redekunst

Das mache ich auch. Aber das Gesamterlebnis ist sicher wertvoll.

Manchmal zeigt er mir Quellen und ich recherchiere weiter.

GuteAntwort2021  13.04.2025, 06:57
@Redekunst

Man kann es sogar bewusst manipulieren, je häufiger der Unsinn verbreitet wurde. Denn ChatGPT basiert auf Wahrscheinlichkeitsrechnung. Bei jeder Antwort werden die wahrscheinlichsten Inhalte wiedergegeben. Wenn diese nun bewusst massenhaft falsch im Internet eingestellt wurden, werden diese Daten eben auch entsprechend von ChatGPT als wahr ausgegeben.

Ein weiterer Fehler liegt darin, dass es als Chatbot so programmiert wurde, dass es immer eine Antwort serviert. Ein "Das weiß ich leider nicht." oder "Meine Datenlage reicht nicht aus um dies gesichert zu beantworten!" sieht das Modell nicht vor. Leider gibt es auch keinen Hinweis darauf, wie qualitativ und seriös die Antwort zu dem Thema ist.

Grundsätzlich gilt, dass allgemeine Informationen oft relativ gut dargestellt werden. Das sind aber auch solche Informationen, die man sehr leicht selbst recherchieren kann...

ChatGPT neigt zum Fantasieren, eines von etlichen selbst erfahrenen Beispielen: Hatte nach einer Funktion für Kalenderwochen gefragt für eine bestimmte Programmiersprache, die Antwort war @week, blöd nur, dass es diese Funktion gar nicht gibt in dieser Programmiersprache... 😉

ChatGPT kombiniert nicht selten Fragmente zu etwas Neuem, was es so nicht gibt, deshalb ist es gefährlich, ihm einfach unkritisch alles 1 zu 1 zu glauben.

Das ist in anderen Bereichen nicht anders.

ChatGPT ist keine Literatur. Dafür beschäftigt du dich intensiver, wenn du da diskutierst. Aber du solltest wissen, ChatGPT fantasiert und kann auch einen Bias haben. Viele Grüße

Hallo,

weil es echte Literatur ist.

Mit allem Hintergrund-Wissen und Quellenangaben.

Also nachweisbar.

Ob das natürlich auch so Alles stimmt, darüber kann man diskutieren.

Hansi