Arbeitet OpenAI daran das ChatGPT die Wahrheit überprüfen kann?

Nein, das ist nicht möglich 67%
Ja, das machen sie(/sind nahe drann) 33%

3 Stimmen

3 Antworten

Nein, das ist nicht möglich

Das kann die zugrunde liegende KI nicht, sie ist nicht dafür geeignet. Außerdem ist Wahrheit ein schwieriges Thema. Anhand von was soll die Wahrheit festgestellt werden? Selbst wissenschaftliche Studien müssen kritisch gelesen und in ihrer differenziertheit verstanden werden und können falsch liegen. Die Wirklichkeit ist komplex und in Daten nicht hinreichend abzubilden.

Woher ich das weiß:Berufserfahrung – Software Entwickler
Ja, das machen sie(/sind nahe drann)

Ja, tun sie. Vor kurzem haben sie ChatGPT mit Search veröffentlicht, wodurch ChatGPT sozusagen Googeln kann, Quellen angeben kann etc. dadurch will OpenAI ChatGPT wahrheitsgemäßer antworten lassen und sogar die Wahrheit überprüfen lassen.

Natürlich kann man sich nie sicher sein ob es wirklich wahr ist oder einfach fake. Deswegen immer selbst überprüfen.

Woher ich das weiß:eigene Erfahrung

wenn in der dazugehörigen Datenbank nur Fake news stehen kann das nicht funktionieren. Das kann kein Programm wenn die daten falsch sind.


Reddington98 
Beitragsersteller
 03.11.2024, 07:33

Aber indem sie darauf trainieren alles mit Studien zu überprüfen und die Quellen verlinkt werden?

HesslerITCon  03.11.2024, 07:34
@Reddington98

bei den Millionen Fake news im Netz... ;) witzig. Das müsste erstmal jemand als Mensch vor sortieren das ist richtig, das ist falsch...

SikerimAMK31  03.11.2024, 12:29
@Reddington98

Ich glaube du überschätzt das was momentan so als KI bezeichnet und gehyped wird deutlich. Diese Systeme können prinzipiell nur das was sie gelernt haben in endlosen Variationen wiedergeben. Im Kern sind diese Systeme eigentlich strunzdumm, und verstehen selbst auch nicht die Bohne was sie sagen. Sie können also selbst nichts überprüfen.

Erzesel  03.11.2024, 12:30
@Reddington98

Vielleicht ist Dir die folgen de Floskel bekannt;:

Drau keiner Studie die du nicht selbst gefälscht hast

...?

Was ist denn Wahr?

Leider ist unsere Welt zu komplex, als das man alles alles überprüfen könnte. Oft ist Wahrheit eine sehr relative Angelegenheit und hängt von der Betrachtungsweise ab.

Anhand welcher Kriterien könnte eine KI festlegen was sie als Wahr ansehen kann?

  • Die Häufigkeit einer Erwähnung scheitet schon mal aus. (Wer am lautesten trommelt findet am ehesten gehör) . Wird eine bewuste oder unbewusste Lüge nur bachdrücklich genug zittert, steigt die Wahrscheinlichkeit, das sie auf Grund der sogenannten "Schwarmintelligenz" als Fakt angesehen wird.
  • Als nächstes Kriterium würde ich konkrete wissenschaftliche Abhandlungen als Referenz kippen. Allein das Renommee einer Quelle besagt nichts über deren Aktualität. Wir berufen uns in der Wissenschaft sehr gern auf Einstein, aber aktuell gibt es auch Theorien, welche recht einleuchtend an dessen "Tron" sägen.
  • Wie bereits eingangs erwähnt widerspiegeln Studien oft eine ergebnisorientierte Abbildung der erwarteten "Wirklichkeit" und bilden nur selten alle tatsächlich Umstände ab (Hierfür sind in der Chemie die sogenannten PAINS ein teffendes Beispiel)

Wie könnte eine KI etwas mit Gewissheit verifizieren, wenn selbst "Menschenverstand" versagt. Selbst wenn ein kluger Informatiker einen cleveren Bewertungsalgoritmus implementiert, beruht dieser auf Kriterien, welche dieser subjektiv als am wahrscheinlichsten bewertet (und kann damit völlig auf dem Holzweg sein).