Wie stellt ihr, man fest, ob ChatGPT (und KI-Konsorten) wirklich Fakten wiedergibt oder sich nur was zusammenreimt?
KI kann sich aus Faktenbruchstücken, die es gelernt hat, auch selber was zusammenbauen, was letztendlich im Ergebnis doch Unsinn ist. Anders gesagt, wer ausnahmslos alles für bare Münze nimmt, kann allemal böse reinfallen.
Wie schützt man, ihr euch sich dagegen? Faktencheck oder wie auch immer? Oder einfach alles glauben?
7 Antworten
Mit dem eigenen Gehirn. Indem man Ahnung von dem Thema hat (indem man es im Zweifel selber lernt) und das ausgespuckte Ergebnis auf Richtigkeit überprüft. 🤷♂️
Das ist nun einmal so, bei Texten die man sich von Anderen (männlich/weiblich/maschinell) schreiben lässt. Wenn man sie als die Seinen verwendet und weitergibt, dann ist man selber auch für den Inhalt verantwortlich. Also sollte man sich überlegen, was man ggf. "blind" übernimmt.
Merke: Es gibt niemanden, der einem "für lau" die eigene Arbeit oder (schlimmer) das Denken abnimmt. Auch keine Maschine.
Merke: Es gibt niemanden, der einem "für lau" die eigene Arbeit oder (schlimmer) das Denken abnimmt. Auch keine Maschine.
So ein Taschenrechner nimmt schon sehr viel Arbeit und eigenes Denken ab.
Ich habe es noch nicht viel genutzt... da waren es Menschenverstand und Vorwissen. Mir ist am Schluss bewusst, dass eine Sprach-KI vor allem gut klingende Sätze generieren kann und der Inhalt zumindest in Frage gestellt werden sollte.
Prinzipiell einen interessanten Ansatz finde ich von Bing die Einstellung der Kreativität. Zum Teil werden da auch weiterführende Links mitgegeben.
Wie schützt man, ihr euch sich dagegen?
Ich nutze das einfach nicht ernsthaft, wenn ich nach einer Frage genau so viel Zeit benötige, eine Antwort zu verifizieren, als ich benötigt hätte, wenn ich mir die Antwort auf eine Frage gleich selbst durch eigene Recherchen erarbeitet hätte. Das ist im Wesentlichen in diesem Zusammenhang auch mein Verständnis von "Zuverlässigkeit". Die würde ich daher ChatGPT auch absprechen (was vermutlich auch meinen Haupt-Interessensgebieten und der mangelnden Skills von ChatGPT gerade in diesen, zu schulden sein dürfte).
Na ja, ChatGPT ist auch nur ein Mensch... Und genau so würde ich damit umgehen. Ich glaube ja auch nicht blind alles, was andere Menschen sagen. Ein LLM nach Fakten zu fragen, ist ein Kategorienfehler. Aber man kann sich wunderbar mit ihr unterhalten und sich auch Anregungen geben lassen. Und zumindest ist es ein guter Ausgangspunkt für weitere Recherchen.
Witzigerweise soll eine Möglichkeit sein, die KI direkt zu fragen, ob das garantiert stimmt bzw ob sie die Wahrheit sagt. Ich habe es nie ausprobiert, aber mal gelesen.
Natürlich kann man gewisse "Fakten" auch einfach überprüfen, mit Hilfe von Google usw.
Den Bock zum Gärtner machen gewissermaßen... ;-) Kann mir nicht vorstellen, dass dann was "richtigeres" herauskommt.
Nein, aber angeblich soll die KI dann sagen, ob sie phantasiert hat. Ich weiß nicht mehr genau, wo ich das gelesen habe, aber es war eine Quelle, die schon seriös ist, deshalb habe ich mir das gemerkt
Ok, denkbar wäre das ja. ChatGPT hat ja (vermutlich) keinerlei Selbstbestätingungsbedarf.
Stimmt; doch die "Mühe" werden sich immer weniger machen (wollen, können) fürchte ich.