Wird GPT-5 oder GPT-6 zuverlässiger als das Aktuelle GPT-4?
Wird ChatGPT eines tages wirklich zuverlässig sein?
11 Stimmen
4 Antworten
Das ist ein grundlegendes Problem mit large language models.
Die funktionieren so dass sie einen Text produzieren der aussieht wie ein korrekter text. Basierend darauf wie ein guter Text aussieht.
Aber wenn irgendwo inkorrekte Informationen stehen, selbst als Witz, dann wird das genau so formuliert wie eine korrekte Information. Ein Witz der wie ein wissenschaftlicher Artikel formuliert ist, ist natürlich ungünstig.
Um das zu beheben braucht man eine KI die sich kritisch mit einem Text auseinandersetzen kann und logisch denken kann. Das funktioniert mit einem einfachen large langauge model nicht.
Large language models sind keine forschungs -ki's, sondern nur KIs die einen Text produzieren basierend einem input. Dementsprechend kann man sich auf die Informationen nie verlassen.
Wie gesagt, kein large language model wie chatgpt.
Aber vielleicht gibt es soeine KI mal.
Klar, es wird ständig weiterentwickelt und auch zuverlässiger.
Wird es irgendwann Wahrheit von Unwahrheit besser unterscheiden können als ein Mensch?
In vielen Fällen schon, denn wenn wir mal ehrlich sind, sind viele Menschen nicht wirklich in der Lage falsche Informationen von echten zu unterscheiden. Aber ich denke dass da auch Grenzen sind denn als reines Sprachmodell kann es zwar gewaltige Mengen an Informationen verarbeiten und auf das gesammelte Wissen der Menschheit zurückgreifen, es fehlt ihn aber die wirklich Lebenserfahrung und die Intuition die sich daraus entwickelt. Ich bin mir nicht sicher, dass das nachgebildet werden kann.
Natürlich wird die Datenbasis immer wieder nachgeführt. Zuverlässig kann ChatGPT aber nur werden, wenn es logische Fehler wirklich selbständig erkennen kann. Und das funktioniert prinzipbedingt nicht. Denn der
https://de.wikipedia.org/wiki/G%C3%B6delscher_Unvollst%C3%A4ndigkeitssatz
setzt dem eine Grenze. Solche Aussagen wie "Diese Menge enthält Elemente die nicht Teil der Menge sind" werden ChatGPT also immer wieder unterlaufen.
zuverlässiger = ja
zuverlässig = nein
Die "KI" lernt durch Daten und Wissen aus dem Internet. Durch jedes Update bekommt die "KI" mehr Daten zur Verfügung, dadurch kann sie Sachen genauer bestimmen. Allerdings können Daten aus dem Internet immer fehlerhaft sein, dadurch bekommst du nie völlige Sicherheit.
Wird es irgendwann Wahrheit von Unwahrheit besser unterscheiden können als ein Mensch?