ChatGPT bedankt?
Hallo Leute. Ich habe heute ein Rätsel bei ChatGPT eingegeben und sie hat es falsch gelöst. Als ich ihr die Antwort gesagt habe, hat sie geantwortet, dass sie etwas neues gelernt hat. Lange Rede kurzer Sinn: Ist das euch auch mal passiert?
4 Antworten
Sprachmodelle sind nicht direkt lernfähig.
Auch wenn es behauptet, etwas gelernt zu haben - das Sprachmodell hat schon in der Antwort davor einen Fehler gemacht, daher sollte es nicht überraschen, wenn es auch andere Dinge von sich gibt, die nicht korrekt sind.
ChatGPT hat kein Selbstbewusstsein, ist nicht introspektiv, weiß nicht, wie es funktioniert, was "lernen" bedeutet, oder was richtig und was falsch ist. Es kann lediglich Sätze mehr oder weniger sinnvoll anhand von Daten zusammenbauen, mit denen es trainiert wurde. Jegliches Wissen, das ChatGPT über sich selbst hat, sind Informationen, die es über Trainingsdaten mitbekommen hat.
Wenn in den Trainingsdaten Konversationen enthalten sind, in denen ein Mensch, nachdem er auf einen Fehler hingewiesen wurde, geantwortet hat, dass er dadurch etwas gelernt habe, dann übernimmt die KI das. Sie lernt, was eine typische Antwort darauf ist, wenn man auf einen Fehler hingewiesen wird. Und wenn Menschen sagen, dass sie durch den Hinweis etwas gelernt haben, dann sagt die KI das auch, unabhängig davon, ob sie wirklich etwas gelernt hat (Tipp: hat sie nicht).
Sprachmodelle basieren auf Statistik, sie reihen die Wörter aneinander, die mit der höchsten Wahrscheinlichkeit in dieser Reihenfolge Sinn ergeben. Das bedeutet aber eben auch, dass nicht mal die KI weiß, wie sinnvoll diese Aussage ist.
Das ist auch eine der größten Gefahren an Sprachmodellen: Sie klingen fast immer selbstbewusst, auch, wenn sie falsch liegen. Vielen Usern fehlt das Verständnis dafür, dass die KI tatsächlich keine Ahnung hat, was sie da von sich gibt, und man einer KI nichts einfach glauben darf. Das gilt genau so für Aussagen, die die KI über sich selbst macht. Man könnte die Trainingsdaten von ChatGPT auch so manipulieren, dass es vehement behauptet, ein Kobold in einer Bibliothek zu sein, der blitzschnell die Antworten nachliest. Wäre natürlich Unsinn, aber wenn es so in den Trainingsdaten steht, gibt die KI es so wieder.
anscheinend neue Features
OpenAI hat wohl ChatGPT der Funktion hinzufügen, von deine Interaktionen zu lernen, um für zukünftige Unterhaltungen auf die zurückzugreifen
ajkcdajefiu~
Ja. Das ist ja das Ding bei KI. Sie lernt aus den Fragen.
Die macht eben manchmal Fehler aber korrigiert sie wenn man sie darauf hinweist. So lernt sie ja.
Klar. Ich benutze ChatGPT schon lange und die Software ist nicht perfekt, sie lernt dazu.
Wenn ich mir die Antworten von ChatGPT durchlese (auch manchmal im Kontext zu vorherigen Antworten) und Fehler bemerke frage ich nach, ob ich Lost bin, oder das ein Fehler von ChatGPT ist.
Spoiler: Meistens ein Fehler der Software.