Warum macht die ki Fehler?

6 Antworten

ChatGPT hat sein "Wissen" hauptsächlich aus dem Internet. Und weil dort auch viel Mist steht, spuckt es auch entsprechenden Mist wieder aus.

Da die Menge an Informationen, mit denen es gefüttert wurde, so groß ist, kann das auch kein Mensch mehr redaktionell prüfen. Man baut/hofft einfach darauf, dass bei mehreren Quellen zu einem bestimmten Sachverhalt die Anzahl der korrekten Informationen die Anzahl der falschen Informationen übersteigt und das System sich demzufolge für die häufigere Variante - die hoffentlich die richtige ist - entscheidet. Und genau dort liegt das Problem. Den kaum etwas wird so oft wiederholt und so breit ausgetreten wie falsche Informationen.

ChatGPT und Konsorten sind also der digital gewordene Bildzeitungsleser.

Garbage in, garbage out.

Hinzu kommt, dass viele Informationen auf den Stand von vor 3 Jahren sind. Bei der Frage nach dem Alter von berühmten Personen kommt nicht selten aus Ergebnis ein Alter, das den von vor 3 Jahren entspricht, obwohl die Frage nach dem Geburtsjahr korrekt beantwortet wird.

Weil KI häufig auf Sprachmodellen, die zumindest für manche Themen nicht geeignet sind, basiert.

Woher ich das weiß:Hobby

ChatGPT ist im Kern nur ein sehr guter Textgenerator. Die KI wurde mit großen Mengen an Texten, primär aus dem Internet, gefüttert, und hat dabei statistische Zusammenhänge zwischen bestimmten Wörtern (bzw. Tokens) ermittelt.

Wenn du ChatGPT fragst, was die Hauptstadt von Deutschland ist, dann weiß es das nicht, weil es in der Schule aufgepasst hat, sondern weil in sehr vielen Sätzen, in denen die Worte "Deutschland" und "Hauptstadt" auftauchen, auch das Wort "Berlin" auftaucht. Da "Berlin" das Wort ist, dass den stärksten Zusammenhang mit "Deutschland" und "Hauptstadt" aufweist, antwortet die KI eben, dass Berlin die Hauptstadt von Deutschland ist.

Aber nicht immer sind die Zusammenhänge so stark. Gerade, wenn es zu Themen einfach nicht sehr viele Texte gibt, oder ein Thema sehr umfangreich ist und es viele ähnliche Begriffe gibt, kann es vorkommen, dass mehrere Begriffe einen ähnlich starken Zusammenhang aufweisen. Dann kann es passieren, dass ChatGPT sich für den falschen Begriff entscheidet, der zwar auch irgendeinen Zusammenhang hat, aber eventuell nicht den richtigen.

ChatGPT weiß also nichts, sondern hat einfach nur große Teile des Internets quergelesen, und versucht basierend darauf, die richtige Antwort zu erraten. Je allgemeiner das Thema, desto besser funktionert das, aber je mehr man in die Tiefe geht, desto eher greift ChatGPT mal daneben.

ChatGPT ist noch nicht "fertig". Die KI wird immer weiterentwickelt. Wir stehen gerade auch erst am Anfang der "KI Zeit". In paar Jahren sollte ChatGPT keine Fehler mehr machen

in den allermeisten fällen kommen Fehler von Fehlbedingungen wei 99% der Leute überhaupt keine Ahnung von KI Modellen haben und das falsche Model nutzen. Der Rest sind dinge die noch nicht 100% rund laufen, insb. wenn es um das Thema haluzinieren geht.


steefi  17.07.2025, 10:10

Auch wenn Fehler durch Fehlbedienung passieren, ist es ein Fehler des Programms, das das nicht erkannt hat, aber auch Das wird das Programm bald können - keine Angst.

geheim007b  17.07.2025, 10:11
@steefi

wenn ich mit einem Löffel probiere ein Brot zu schneiden ist es ein Fehler des Löffels?

steefi  17.07.2025, 10:20
@geheim007b

Der Ansatz Deines Gedankenganges ist falsch. Sonst wird doch bei jungen Leuten auch immer so auf alles geschworen was aus den USA kommt. Die macht das nämlich indem sie auch die letzte Blödheit versucht auszuschließen. Beispiel: Bei einem Liter Motoröl steht dann auf der Packung: nicht trinken.

geheim007b  17.07.2025, 10:35
@steefi

das erklärt aber immer noch nicht warum es der Fehler eines LLMs ist das es nicht trainiert wurde komplexe Berechnungen zu machen. Genau wie beim schneiden eines Brotes mit dem Löffel ist es ein Fehler des Benutzers wenn man eine KI entgegen seiner Funktion benutzt nur weil man sich nicht informiert. Und wir haben hier keine US Verhältnisse bei denen man von absoluter geistesbefreitheit ausgehen muss und drauf schreibt keine Tiere in der Microwelle zu trocknen.