Kann ChatGPT wirklich keine Kreuzreime machen?

4 Antworten

Du musst ihm mehrere Male erklären was kreuzreim ist und wie er funktioniert. Dann kann er es auch.


luxaeterna 
Fragesteller
 21.05.2023, 10:25

Habe es ihm die ganze Nacht und über zig Seiten versucht zu erklären. Resultat ist dann immer das oben beschriebene Muster.

0
luxaeterna 
Fragesteller
 22.05.2023, 11:41
@Milio050110270

Ich habe es jetzt geschafft, indem ich, wie ich myotis schon geschrieben habe, ihn ZUERST einen Kreuzreim machen lassen und dann korrigiert habe, dann anhand des Schemas das Gedicht schreiben lassen habe. Wenn man aber erst das Gedicht macht und er erst mal das Reimschema AAAA drin hat, ist es nicht mehr aus ihm rauszukriegen. Da lag der Fehler!

0

Versuche Umwege...

  • Beispiele
  • Noch mehr Beispiele
  • Schlechte (weil zu ähnliche) Reime
  • Also Licht und Licht statt elegante, aber nur ähnlich klingende Reimworte... Oder gar poetische Kunstworte...
  • Lass ihn am Zeilenanfang reimen
  • Und wenn er das kann Zeilenende nehmen (lassen)
  • ...

luxaeterna 
Fragesteller
 21.05.2023, 20:49

Das ist die Lösung!!!
Für alle, die das interessiert: Ich habe nun ganz von Anfang angefangen und ihm gesagt, dass er einen Kreuzreim machen soll. Er hat daraufhin (wieder) zwei Paarreime (AABB) gemacht. Ich habe ihm dann gesagt, dass das Paarreime sind, und gefragt, ob er weiß, was Kreuzreime sind. Er hat es bejaht und mir daraufhin einen perfekten Kreuzreim (ABAB) geliefert. Dann habe ich ihm gesagt, dass er nun nach dem gleichen Schema den vorliegenden Text reimen soll und - es hat funktioniert! :)

1
myotis  22.05.2023, 10:17
@luxaeterna

No gugge ;o)

Ihr zwo beiden seid halt schon schlaue Kerlchen ;o)

0

Warum sollte es das Können.

Dazu müsste es der KI ja erst mal beibringen

Das ist kein Bug sondern eigentlich doch ganz normal.


luxaeterna 
Fragesteller
 21.05.2023, 10:29

Die Frage "Warum sollte es das Können." verstehe ich nicht. ChatGPT kann normalerweise alle möglichen Stilformen. Und bei sowas Banalem, dass sich Vers 1 und 2 NICHT auf einander reimen sollen, versagt es plötzlich.

0
NackterGerd  21.05.2023, 10:33
@luxaeterna

Was verstehst du nicht

Das ist ein Computerprogramm

Der Algorithmus kann nur das wofür er trainiert wurde.

So banal ist das auch nicht für ein Programm.

Frag mal Kinder ob sie es können.

0
luxaeterna 
Fragesteller
 21.05.2023, 18:19
@NackterGerd

Hast du mal mit GPT gearbeitet und gesehen, was es alles kann? Da müsste ein Kreuzreim nicht nur möglich, sondern sogar eins der leichtesten Übungen sein. Und vor allem, wenn man ihm sagt, dass sich Zeile 1 NICHT auf Zeile 2 reimen soll. Was Reime sind, weiß er und er erkennt auch, dass er Mißt gemacht hat, wenn man noch mal nachfragt. Aber beim nächsten mal macht er es wieder so. Das muss ein Bug sein oder Ähnliches.

0
NackterGerd  21.05.2023, 19:02
@luxaeterna

Klar habe ich schon ChatGPT angeschaut

Auch schon oft falsche Ergebnisse bzw wahlos zusammengesetzte Infos.

Da müsste ein Kreuzreim nicht nur möglich, sondern sogar eins der leichtesten Übungen sein.

Muss es doch gar nicht.

Hast du eine Ahnung wir ein Computerprogramm funktioniert

0
luxaeterna 
Fragesteller
 21.05.2023, 20:14
@NackterGerd

ChatGPT funktioniert NICHT, wie du denkst, nur mit Algorithmen. Es ist eine KI, die selbständig lernt und quasi das ganze Internet dafür zur Verfügung hat. Es muss da nicht jede Gedichtsform einprogrammiert werden. Und in meinem Fall geht es sogar noch um etwas viel Banaleres: Ich sage ihm, dass die 1. und die 2. Zeile sich NICHT reimen sollen. Anweisungen befolgen kann ChatGPT normalerweise sehr gut. Du kannst ihm sogar seitenlange Aufgaben stellen und er befolgt alles exakt. Dass die KI auch manchmal Fehler macht, ist mir klar, aber normalerweise korrigiert sie sich, wenn man sie darauf hinweist. In diesem Fall scheint es da jedoch einen Bug zu geben.

0

ChatGPT kennt nicht dass Ende seiner Antwort bevor er den Anfang kennt.

Heißt also er kann seine Antworten sogesehen nicht planen.

Aus dem selben Grund ist GPT auch extrem schlecht darin Witze zu schreiben, denn er kann die Pointe nicht planen und dann entsprechend den Witz dort hinführen.

Wenn also der Inhalt stark vom Ende der Antwort abhängig ist: (Reime, Witze) ist GPT eher schlecht darin.