Ein KI Sprachmodell hat einige Vorteile:
- geprüfte verschiedene Quellen
- fachlich mittlerweile auf Niveau von Experten ihres Fachgebietes
- faszinierend schnell
- gibt vorformulierte Texte aus je nach dem wie man die Frage stellte, für einen Laien, für einen Fachmann für jemanden der gerade seine Dissertation darüber schreibt. Alles ist möglich.
Es hat aber auch jede Menge Nachteile:
- es wägt zwischen die Quellen ab, simple Wahrscheinlichkeit, was glaubwrüdiger ist und wie intern gewichtet wurde (darauf haben wir keinen Einfluss und müssen auf gute Gewichtung vertrauen).
- Für Meinungsfragen gänzlich ungeeignet.
- ChatGPt hat kein wirkliches Gedächtnis
- Noch schlimmer als Meinungen sind nur Erfahrungen, denn woher soll eine KI soetwas wissen, es kann nur Erfahrungen im Netz abgrasen und wir wissen alle wie Rezensionen und Bewertungsportale manipuliert sind.
- GPT Halluziniert
Zu 1.
Eine meiner Lieblingsfragen ist warum Peter Lustig als Kinderhasser bekannt ist, dies ist ein Gerücht das die Bildzeitung einst intiiert hatte. Das ist auch klar im Netz zu lesen, dennoch erwarte ich von einer KI hier eine Einordnung warum, mit Quellen oder woher das stammen könnte aber oft kommt hier nur das übliche KI blabla, möglicherweise könnte - gedeutet - haste nicht gesehen.... ganz selten, wird auf das Interview mit Kai Biermann hingewiesen welches ich auch schon mit Daten zwischen 1998 und 2017 gelesen habe, woher die vollkommen falschen Jahresangaben herkommen, keine Ahnung. Teilweise bekommt man bei solchen Fragen, mit der identischen Frage 2 Qualitativ stark abweichende Antworten mit gänzlich anderem Inhalt. Hier ist noch zu viel Streuung drin.
Zu 2.
Ich habe ChatGPT eine Zeitlang zum optimieren von Code, Formeln oder sonstigem Verwendet, macht überhaupt keinen Sinn, die lobt mich über den grünen Klee hinaus, wie toll ich irgendwas erfasst habe, ohne teilweise auf die Probleme einzugehen die ich eigentlich gelöst haben wollte und eiert immer wieder drum rum, mit teilweise Fadenscheinigen Begründungen, besonders schlimm ist hier das Modell o3.
zu 3.
ich muss immer wieder die selben Dinge anmerken die ich gerne beachtet hätte. z.B. in meinem Fachgebiet Excel hole ich mir gerne Inspiration für andere Lösungswege. Ich muss ständig erneut erklären, dass ich die deutsche Syntax haben will, deutsche Formeln verwendet werden sollen und die Formeln nicht wie beim programmieren aufgefächert werden sollen, da die Bearbeitungsleiste eben recht klein ich und 12 Zeilige Formeln scheiße zu warten sind. Das kann ich aller 3-4 Beiträge wiederholen, ist teilweise schlimmer als mit einem 3 jährigen Kind. Das komische ist, wenn ich dann aber aber Frage "was sollst du mit den Formeln nicht machen", wird die direkt als einzeiige Ausgabe geschrieben und die richtige Antwort gegeben. Komisch GPT weiß es ja aber macht es nicht.
Zu 5.
Ich habe mir mal den Spaß gemacht und nach Siemensdruckfühlern mit bestimmten Daten gefragt, die Antwort so sehr daneben wie man es sich nur vorstellen kann. 2 Geräte haben gestimmt. 3 Geräte gab, es hatten aber vollkommen andere Daten und 7 waren frei erfunden, hier scheint die KI ein Muster bei der Benennung zuerkennen und glaubt dies einfach beliebig Fortsetzten zu können.
Ein Druckschalter QBM81-3 ist für 300pascal Druck, na dann muss doch ein QBM81-1 für 100 und ein QBM81-25 für 2500 Pascal sein, ist doch logisch, tja, nur gibt es diese nicht.
Und dann waren noch 2 außerhalb jeder Erkennungslogik. Das macht jeder Azubi Besser, denn ich muss mich auf ein Ergebnis zumindest einigermaßen verlassen können.
Vor allem wenn es um Verlässlichkeit geht, tut sich die KI noch schwer, es wird aber mit jeder Version Besser dennoch setzt Gutefrage auf eine ganz andere Frage Struktur, ich glaube hier fragt kaum einer hoch wissenschaftliche Thesen, die Masse sind eher Meinungsfragen, Diskussionen per Schwarmintelligenz, Inspirationssammlung etc.
Die Wahrnehmung einer KI zu gewissen Sachverhalten ist eine gänzlich andere als wir sie fühlen. Ein gutes Beispiel dafür ist die Frage z.B. eine Frage von mir kürzlich zur meist genutzten Excel Version, das Ergebnis entspricht in keiner Weise dem was GPT mit rausgibt, ebenso habe ich vor einiger Zeit eine Frage gestellt mit der Bitte um abschreckende oder geniale Formeln, die man bei Schulungen einstreuen kann um aufzuzeigen, wie etwas nicht geht oder wie etwas besonders Effizient ist, eben aus der Praxis was die Leute schon gesehen oder selbst gemacht haben, versucht dir dass mal von einer KI konstruieren zu lassen, da bekomme ich irgendwas künstlich konstruiertes bei der sich die Formel 3x im Kreis dreht um zum Ziel zu kommen - mit keinerlei Praxisbezug.
Und von gewissen Dingen hat GPT auch einfach gar keine Ahnung, weil die vermutlich zu sehr unter Verschluss sind. Auch Einstellungen von Programmen wo man irgendwas findet basieren sehr oft auf alten Anleitungen, hier hilft die natürlich jemand auf GF.net der das Programm selbst hat deutlich besser.