Kann ChatGPT wirklich keine Kreuzreime machen?
Gedichte schreiben ist für ChatGPT ja kein Problem, aber wenn man ihm aufträgt, Kreuzreime (z.B. das Reimschema ABAB) zu machen, macht er trotzdem AABB. Über umständliches Erklären kann man ihn dazu bringen, dass er AAAA macht, aber niemals ABAB. Wenn man ihm sagt, er soll vermeiden, dass sich die 1. und 2. Zeile auf einander reimen, sagt er "okay" und macht dann trotzdem wieder AAAA. Ist es ein Bug, für den es bisher keine Möglichkeiten gibt, ihn zu fixen? Habe es übrigens sowohl mit GPT-3.5 als auch mit GPT-4.0 probiert. Beide Versionen können es nicht.
4 Antworten
Du musst ihm mehrere Male erklären was kreuzreim ist und wie er funktioniert. Dann kann er es auch.
Ich habe es jetzt geschafft, indem ich, wie ich myotis schon geschrieben habe, ihn ZUERST einen Kreuzreim machen lassen und dann korrigiert habe, dann anhand des Schemas das Gedicht schreiben lassen habe. Wenn man aber erst das Gedicht macht und er erst mal das Reimschema AAAA drin hat, ist es nicht mehr aus ihm rauszukriegen. Da lag der Fehler!
Versuche Umwege...
- Beispiele
- Noch mehr Beispiele
- Schlechte (weil zu ähnliche) Reime
- Also Licht und Licht statt elegante, aber nur ähnlich klingende Reimworte... Oder gar poetische Kunstworte...
- Lass ihn am Zeilenanfang reimen
- Und wenn er das kann Zeilenende nehmen (lassen)
- ...
Das ist die Lösung!!!
Für alle, die das interessiert: Ich habe nun ganz von Anfang angefangen und ihm gesagt, dass er einen Kreuzreim machen soll. Er hat daraufhin (wieder) zwei Paarreime (AABB) gemacht. Ich habe ihm dann gesagt, dass das Paarreime sind, und gefragt, ob er weiß, was Kreuzreime sind. Er hat es bejaht und mir daraufhin einen perfekten Kreuzreim (ABAB) geliefert. Dann habe ich ihm gesagt, dass er nun nach dem gleichen Schema den vorliegenden Text reimen soll und - es hat funktioniert! :)
Warum sollte es das Können.
Dazu müsste es der KI ja erst mal beibringen
Das ist kein Bug sondern eigentlich doch ganz normal.
Die Frage "Warum sollte es das Können." verstehe ich nicht. ChatGPT kann normalerweise alle möglichen Stilformen. Und bei sowas Banalem, dass sich Vers 1 und 2 NICHT auf einander reimen sollen, versagt es plötzlich.
Was verstehst du nicht
Das ist ein Computerprogramm
Der Algorithmus kann nur das wofür er trainiert wurde.
So banal ist das auch nicht für ein Programm.
Frag mal Kinder ob sie es können.
Hast du mal mit GPT gearbeitet und gesehen, was es alles kann? Da müsste ein Kreuzreim nicht nur möglich, sondern sogar eins der leichtesten Übungen sein. Und vor allem, wenn man ihm sagt, dass sich Zeile 1 NICHT auf Zeile 2 reimen soll. Was Reime sind, weiß er und er erkennt auch, dass er Mißt gemacht hat, wenn man noch mal nachfragt. Aber beim nächsten mal macht er es wieder so. Das muss ein Bug sein oder Ähnliches.
Klar habe ich schon ChatGPT angeschaut
Auch schon oft falsche Ergebnisse bzw wahlos zusammengesetzte Infos.
Da müsste ein Kreuzreim nicht nur möglich, sondern sogar eins der leichtesten Übungen sein.
Muss es doch gar nicht.
Hast du eine Ahnung wir ein Computerprogramm funktioniert
ChatGPT funktioniert NICHT, wie du denkst, nur mit Algorithmen. Es ist eine KI, die selbständig lernt und quasi das ganze Internet dafür zur Verfügung hat. Es muss da nicht jede Gedichtsform einprogrammiert werden. Und in meinem Fall geht es sogar noch um etwas viel Banaleres: Ich sage ihm, dass die 1. und die 2. Zeile sich NICHT reimen sollen. Anweisungen befolgen kann ChatGPT normalerweise sehr gut. Du kannst ihm sogar seitenlange Aufgaben stellen und er befolgt alles exakt. Dass die KI auch manchmal Fehler macht, ist mir klar, aber normalerweise korrigiert sie sich, wenn man sie darauf hinweist. In diesem Fall scheint es da jedoch einen Bug zu geben.
ChatGPT kennt nicht dass Ende seiner Antwort bevor er den Anfang kennt.
Heißt also er kann seine Antworten sogesehen nicht planen.
Aus dem selben Grund ist GPT auch extrem schlecht darin Witze zu schreiben, denn er kann die Pointe nicht planen und dann entsprechend den Witz dort hinführen.
Wenn also der Inhalt stark vom Ende der Antwort abhängig ist: (Reime, Witze) ist GPT eher schlecht darin.
Habe es ihm die ganze Nacht und über zig Seiten versucht zu erklären. Resultat ist dann immer das oben beschriebene Muster.