Was geht denn bei ChatGPT ab😂?

5 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Ziemlich harmlos. Die KI ist nur so gut wie ihre Trainingsdaten und was sie daraus macht. Da gibts weitaus krassere und für den Alltag mitunter deutlich gefährlichere Fehler, gut, dass du die Grenzen der KI schnell herausfindest, bevor du dich auf die verlässt.

ChatGPT schreibt nicht immer korrekte antworten da die Informationen meist aus mehreren Quellen stammen, OpenAI selbst schreibt ja auch: "ChatGPT can make mistakes. Consider checking important information." -> "ChatGPT kann Fehler machen. Erwäge wichtige Informationen zu überprüfen.".

Was du da eingefügt hast ist vielleicht das Emoji mit Bart, es wird aber auf deinem Gerät anders dargestellt. Füge es doch hier mal ein.

Sunshine975 
Fragesteller
 20.03.2024, 16:48

🫵

0
MonkeyKing  20.03.2024, 16:51
@Sunshine975

Kommt bei mir auch so an. Bei mir sagt ChatGPT das ist ein Emoji für ein Gehirn. Er scheint das nicht zu kennen und denkt sich irgendwas aus.

1
MonkeyKing  20.03.2024, 16:58
@gufrastella

Kommt darauf an wie du fragst. Large language models wie das auf dem ChatGPT basiert neigen dazu sich Dinge auszudenken wenn sie es nicht wissen.

Wenn ich so frage:

was ist das? wenn du es nicht weisst, denke dir nichts aus sondern sage dass du es nicht weisst: 🫵

Antwort: ich weiss es nicht

1
MonkeyKing  20.03.2024, 16:59
@gufrastella

ChatGPT 4.0 sagt übrigens

Das Emoji 🫵 steht für eine Hand, die nach vorne zeigt, ähnlich wie jemand, der sagt "Halt" oder eine Geste der Präsentation macht. Es kann verschiedene Bedeutungen haben, abhängig vom Kontext, in dem es verwendet wird, wie zum Beispiel Aufmerksamkeit erregen, etwas anbieten oder eine stoppende Geste darstellen.

1
gufrastella  20.03.2024, 17:00
@MonkeyKing

Na, toll, das Fabulieren als Krankheit von Large language models ist ja echt putzig.

0
MonkeyKing  20.03.2024, 17:00
@gufrastella

Kann putzig sein aber auch gefährlich wenn man alle Antworten für bare Münze nimmt

1

ChatGPT weiß noch längst nicht alles und macht noch Fehler. Ich habe ChatGPT einmal gefragt, woran man den Graph einer antiproportionalen Zuordnung erkennt und er hat mir geantwortet, dass dieser immer durch den Ursprung geht, was falsch ist weil der Graph nie durch den Ursprung geht. Daraufhin habe ich ihm gesagt, dass dies falsch ist und er hat geschrieben, dass ihm dort ein Fehler unterlaufen sei.

Auch Chatgpt ist nicht das Gelbe vom Ei und kann Fehler machen. Jedes System ist nur so gut wie sein Programmierer.

MonkeyKing  20.03.2024, 16:51

Bei KIs gilt das nicht mehr. KIs können besser als ihr Programmierer werden.

0
profanity  20.03.2024, 16:52
@MonkeyKing

Und du glaubst, die haben da keine Sicherheitsbremse eingebaut, hm? 🤣

0