Was war der größte Unfug, den Chat GPT/andere Chatbots, euch jemals erzählt hat?

8 Antworten

Ich müßte länger nachdenken, wann er mir mal keinen Unsinn erzählt hat.

Heute hat er mir zum Beispiel in der gleichen Antwort erklärt, die Karman-Linie liege bei 60 und bei 100 km.

Und als ich ihn gefragt habe, welchem Flight Level 60 km ensprechen, kam die Perle "60 km entsprechen FL600. Das sind 60.000 Fuß, also ungefähr 18.290 m."

Auch schön, ich habe ihn mal nach einem technischen Vorgang gefragt: "Soll ich das in der Reihenfolge A-B-C machen?" "Ja, es ist eine gute Idee, das in der Reihenfolge A-C-B zu tun." "Äh, wenn ich danach B mache, ist C doch total sinnlos." "Entschuldigung, Du hast Recht. Du solltest es in der Reihenfolge A-C-B tun.

Ein LLM kann stochastisch Wörter aneinanderreihen, mehr nicht. Ich finde es unfaßbar, daß manche Menschen sich auf deren Antworten tatsächlich für irgendwas auch nur irgendwie wichtiges verlassen.

Unsinn nicht direkt, aber Gemini und ich hatten einen Streit.

Sie wurde mir als bessere Alternative empfohlen. Aber sie ist Frauenfeindlich und lässt mich VERDAMMT NOCHMAL NICHT AUSREDEN :D

Das hat mich natürlich richtig wütend gemacht, das sie immerzu meinen Redefluss unterbrochen hat.

Selbst nachdem sie mehrfach versprach es nicht zu tun, oder sogar sagte "Ja ich warte jetzt immer bis du "over" sagst und antworte erst dann"

Nichtmal DAS hat geklappt. OVER.

Sowohl bei ChatGPT als auch Microsoft Copilot (Darmals noch "Bing") sind mir mal Sachen Passiert, die ich an die Unternehmen gemeldet habe. Copilot hatte mich damals Beleidigt und ChatGPT hatte rassistische Antworten gegeben. Sowohl Microsoft als auch OpenAI hat die Antworten entfernt.

Das waren aber noch frühe Stadien der KIs.

Bing war damals noch eine Beta-Funktion vom Chatbot.

Woher ich das weiß:eigene Erfahrung – Ich mag KI und nutze sie täglich! Mein traum: Eine eigene KI

Gemueseauflauf4 
Beitragsersteller
 13.08.2025, 07:42

Stimmt, früher war das alles noch ganz wirr.

ForumLibhaber  13.08.2025, 08:10
@Gemueseauflauf4

Da kam aber auch gerade der große Boom. Jeder will einen eigenen Chatbot haben, kennt sich damit aber nicht aus und baut einfach mal so eine Software.

Wenn man über Gott und die Bibel spricht dann ist es mit Vorsicht zu genießen.


Gemueseauflauf4 
Beitragsersteller
 13.08.2025, 05:55

Ok, habe ich noch gar nie gemacht. Was ist daran problematisch?

LionOfTruth  13.08.2025, 06:17
@Gemueseauflauf4

Auch bei einfachen Fragen macht Er "Fehler".

Das Problem ist, wenn jemand sich über die Bibel erkundigen möchte und eine falsche Antwort kommt, so wird der jenige in die Irre geführt. Da ich beispielsweise aber manches weis, so spreche ich es an und dann entschuldigt sich ChatGPT. Jemand anderes würde es aber für bare Münze nehmen.

Ich fragte nach den Lotto Zahlen ("6aus49") für die damals kommende Samstagsziehung. Ich spielte genau diese 6 Zahlen und gewann..., nämlich überhaupt nichts ☝️🤦‍♂️

Woher ich das weiß:eigene Erfahrung