KI macht was sie will?
Bzw. habt ihr manchmal auch das Gefühl, mit einer eigenwilligen KI zu kommunizieren?
Manchmal habe ich das Gefühl, chatgtp veralbert mich.
Bsp. 1:
Ich habe zwei Versionen von einem Text, A und B, und lasse mir eine Zusammenfassung von Text A geben, bekomme aber die Zusammenfassung von Text B. Okay das kann ja ein Missverständnis gewesen sein. Also sage ich hey Karl (so habe ich ihn getauft 😉), nimm doch bitte Text A und nicht Text B. Karl ist wie immer sehr höflich und entschuldigt sich, macht es neu. Gibt mir diesmal eine Zusammenfassung von Text A, aber mit irgendeiner Information die aus Text B stammt.
Ich beanstande das. Dann gleiches Spiel, er entschuldigt sich, schickt den Text neu, hat den Fehler korrigiert, aber plötzlich eine andere Info von Text B dazu genommen. Das geht manchmal so weiter... Und ich verstehe das nicht, also ich meine das war keine schwere Aufgabe.
Bsp. 2:
Ich habe Karl gefragt ob er mir bei einem Sudoku hilft und mir einen Tipp geben kann für die nächste Zahl. KI sollen ja in sowas gut sein. Karl schaut sich das Sudoku an, macht mir einen Vorschlag, rechnet es selber nach - und bemerkt, es ist falsch. Versucht es mit einem anderen Kästchen und einer anderen Zahl - prüft es nach und bemerkt - wieder falsch 😂
Stimmt irgendwas mit meiner Version nicht oder so???😄
Und habt ihr ähnliche Erfahrungen gemacht?
Danke schon mal :)
3 Antworten
Dann gebe ihn doch einfach zuerst Text A zum bearbeiten und danach Text B. Für das Programm ist es schwer sowas auseinander zu halten, da es immer mit dem gesamten Chat arbeitet, den du in der Sitzung führst. Oder du markierst die Texte mit einer Überschrift und gibst diese an "Nehme den Text über dem steht XY..."
Chat GPT ist ein Textverarbeitungsprogramm, es ist weithin bekannt das es Probleme mit der Mathematik hat, dafür ist es halt nicht ausgelegt. Einfach Mathematische Aufgaben führen zu Schleifen. Hochkomplexe Formeln kann dir Chat GPT erklären, da dafür wieder Text benutzt werden kann
Also auch hier, sitzt das Problem ehr vor dem PC
Chatgpt ist eine KI,kein Lebewesen. Es ist schwer für ihn/sie/es (jenachdem wie du es siehst) sachen ausseinander zu halten,als programm. Chatgpt verlabert sich ständig,die hat mir mal gesagt fnaf 2 kam am 2. November raus,es war eigentlich der 11.,gerade in längeren chats verplappert sich das teil ständig.
Ja KI ist leider eben nicht intelligent, sondern eine überdimensionale Plaudertasche und brabbelt nur das nach, was man ihr antrainiert hat. KI ist praktisch untrainiert auf dem Gebiet von Sudoku, Schach, Chemie usw. KI oder besser Sprachmodelle "halluzinieren" weil die Zusammhänge zwar verstehen, aber eben nicht begreifen. Auch wenn KI in den den letzten Jahren enorme Fortschritte gemacht hat, ist da noch viel Luft nach oben.