Wem sonst noch ist die offenbar grauenhaft schlechte Qualität von Elon Musks KI Grok schon aufgefallen?
|
Grok, die von Elon Musks xAI entwickelte KI, hat falsche und widersprüchliche Antworten auf Nutzeranfragen zum 12-tägigen Konflikt zwischen Israel und dem Iran gegeben, so das Digital Forensic Research Lab.
Ein neuer Bericht zeigt, dass Grok — der in X integrierte kostenlos nutzbare KI-Chatbot Elon Musks — bei Verifizierung von Informationen über den 12-tägigen Konflikt zwischen Israel und dem Iran (13. bis 24. Juni) "erhebliche Fehler und Einschränkungen" aufwies.
Forscher des Digital Forensic Research Lab (DFRLab) des Atlantic Council analysierten 130.000 Beiträge, die der Chatbot auf X im Zusammenhang mit dem 12-tägigen Konflikt veröffentlicht hatte, und stellten fest, dass sie ungenaue und widersprüchliche Informationen enthielten.
Sie schätzen, dass etwa ein Drittel dieser Beiträge auf Anfragen zur Verifizierung von Fehlinformationen, die über den Konflikt kursierten, reagierten, einschließlich unbestätigter Behauptungen in sozialen Medien und Filmmaterial, das angeblich aus dem Feuergefecht stammte.
"Grok hat gezeigt, dass es Schwierigkeiten hat, bereits bestätigte Fakten zu verifizieren, gefälschtes Bildmaterial zu analysieren und unbegründete Behauptungen zu vermeiden",
heißt es in dem Bericht.
2 Antworten
Das hat auch was Gutes. Jetzt wissen wir wenigstens sicher, dass Elon nicht vom Sirius ist, denn die hätten eine bessere KI zu uns gebracht und er ist aus dem selben Grund auch kein Reptilian.
Ich nutze nach Möglichkeit nichts, was von Musk kommt, aber es ist auch nicht die einzige KI, die grottenschlechte Ergebnisse liefert...
Genau! Ich habe gerade ChatGPTx.de benutzt und nach den Berufen von DDR-Politikern gefragt. Da wurde erfunden, was als richtige Antwort geschätzt wurde.