Liefert ChatGPT zu wenig Widerrede?

5 Antworten

ChatGPT und andere LLMs sind Werkzeuge, die darauf trainiert wurden, Fragen zu beantworten, daran ist nichts intelligent. Es versteht nicht, was dein Ziel ist, es versteht die Inhalte nicht und es weiß nicht, ob Du Recht hast, oder nicht, es errechnet nur die wahrscheinlichste Antwort auf deine letzte Nachricht. Diese LLMs wurden aber nicht nur auf's Fragen beantworten trainiert, sondern auch darauf, dass sie freundlich sein und noch diverse andere Bestimmungen erfüllen sollen. Und Widerworte (selbst wenn gerechtfertigt) werden (leider) häufig als unhöflich aufgefasst, also werden sie vermieden. Aber selbst wenn es diese Bestimmungen nicht gäbe, wüsstest Du immer noch nicht sicher, ob die Antwort auch stimmt.

Das ist auch einer der Gründe, warum derzeitige LLMs uns in keiner Weite gefährlich werden können, sie können monotone Aufgaben vereinfachen und an vielen Stellen helfen, aber um auch komplexere Aufgaben effektiv lösen lassen zu können, braucht man immer noch das gleiche Fachwissen und die gleiche Erfahrung, mit der man es auch selber lösen könnte, es ist nur weniger Arbeit.

ChatGPT macht viele Fehler. Man könnte sagen, es ist unwissend! Im besten Fall halbwissend.

Man kann z. B. wunderbar nach grammatikalischen Formulierungen fragen.

Aber Allgemeinwissen beherrscht das Programm nicht.

Woher ich das weiß:eigene Erfahrung

ChatGPT ist ein Programm zum Chatten, Es ist aber nicht dafür gemacht, um seriöse (und der Wahrheit entsprechende) Antworten auf Fragen zu geben. Chatten bzw. sich mit jemanden zu unterhalten, muss nicht unbedingt heißen, dass man sich an die Wahrheit hält, sondern eher dass man eine angenehme Unterhaltung führt. Deshalb sind die Antworten von CatGPT selten konfrontativ oder widerredend.

Es gibt mehrere Faktoren, die dazu beitragen, dass ChatGPT falsche Antworten gibt. Ein wesentlicher Aspekt sind seine Trainingsdaten. ChatGPT wird wie andere KI-Modelle mit riesigen Mengen an Informationen trainiert. Aber was ist, wenn einige dieser Informationen fehlerhaft, veraltet oder sogar irreführend sind? Die Abhängigkeit des Modells von historischen Daten bedeutet, dass es veraltete Ansichten oder Fakten aufrechterhalten kann, die inzwischen widerlegt wurden.
Darüber hinaus kann die Dateninterpretation von ChatGPT manchmal fehlerhaft sein. Aufgrund der enormen Datenmenge, die es verarbeitet, kann es manchmal Verbindungen oder Schlussfolgerungen ziehen, die zwar statistisch gültig sind, in einem realen Kontext jedoch möglicherweise keinen Sinn ergeben.
Wenn beispielsweise eine Fehlinformation im Internet oft genug wiederholt wird, erkennt das neuronale Netzwerk sie möglicherweise als gültiges Muster, was zu Ungenauigkeiten in den Antworten von ChatGPT führt.
Auch ChatGPT hat seine eigenen Herausforderungen. Obwohl es riesige Datenmengen blitzschnell verarbeiten kann, fehlt ihm die Nuance und Kontextwahrnehmung, die die menschliche Wahrnehmung bietet. So können Menschen beispielsweise soziokulturelle Kontexte, Emotionen und ethische Überlegungen in ihre Schlussfolgerungen einbeziehen – Aspekte, die ChatGPT übersehen oder falsch interpretieren könnte.
Ein KI-Modell ist, egal wie ausgefeilt seine Architektur ist, nur so gut wie die Daten, mit denen es trainiert wird. ChatGPT wird mit einer Mischung aus lizenzierten Daten, von menschlichen Trainern erstellten Daten und riesigen Textmengen aus dem Internet trainiert. Dies bedeutet, dass es zwar über eine breite Wissensbasis verfügt, aber auch anfällig für die in diesen Daten vorhandenen Verzerrungen und Ungenauigkeiten ist. Das Internet ist zwar eine Fundgrube an Informationen, aber auch voller Fehlinformationen, Verzerrungen und veralteter Fakten. Folglich kann die Abhängigkeit von ChatGPT von diesem riesigen Datenreservoir manchmal seine Achillesferse sein, was dazu führt, dass es Antworten liefert, die möglicherweise nicht immer aktuell oder genau sind.

https://jenni-ai.translate.goog/chat-gpt/incorrect-answers-errors?_x_tr_sl=en&_x_tr_tl=de&_x_tr_hl=de&_x_tr_pto=rq

Woher ich das weiß:eigene Erfahrung

Das Programm ist ja keine Person und hat keine Intelligenz.

Es versucht einfach nur, deine Frage zu beantworten.

Versucht!

Nicht immer kommt natürlich auch eine sinnvolle und richtige Antwort raus.

schlechtes prompt engenering

du kannst keine psychologie auf ein llm anwenden

jetzt kennst du ja das problem und kannst darum herum arbeiten