Warum macht GPT Fehler bei simpelsten Rechenaufgaben?

9 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Diese KI wurde für Texte entwickelt und das konnte sie mal ganz gut. Ein Drehbuch für einen Standard-Tatort? Kein Problem. Man merkte zwar eine gewisse Schiene, und die Superkorrektheit verhindert etwas frech-frischen Wind, aber immerhin!

Das Wörterzählen hat schon nicht geklappt und das Ausfüllen von Buchstabenlücken hat wohl ebenfalls etwas mit Mathematik zu tun. Da geht so wenig wie mit Reimen.

Frag z.B. mal nach Wörtern, die sich auf "-fant" reimen oder "Ersetze das X in 'KXXze', um sinnvolle Wörter zu bilden!"

Pekielfilosofo 
Fragesteller
 21.02.2024, 14:43

Danke für die Antwort. Aber oho. Reimen und Gedichte schreiben anhand von stichworten zur Person für die es gedacht ist macht es also grossartig und die reime reimen sich, na ja etwa zu 80% 🤣

0
Pekielfilosofo 
Fragesteller
 21.02.2024, 16:36
@Pekielfilosofo

Meine Mitarbeiterin musste tatsächlich weinen als ich ihr das von gpt erstellte gedicht als abschiedsbrief überreicht habe. Zweck erfüllt. Also nein, wollte sie natürlich nicht zum weinen bringen aber es hat ihr herz berührt ❤️

1

Hallo.

ChatGPT ist kein Taschenrechner sondern einfach ein trainiertes KI-Modell. KI steht zwar für künstliche Intelligenz, erweckt aber falsche Erwartungen beim Nutzer, denn es besitzt nicht wirklich eine Intelligenz.

Vereinfacht ausgedrückt sind KI Modelle nichts anderes, als statistische Auswertungen. Dazu werden dem Modell "beliebig" viele Daten zur Verfügung gestellt und das Modell berechnet je nach Eingabeparameter die wahrscheinlichste Antwort, basierend auf seinen Trainingsdaten.

In anderen Worten: Es kann dir zwar helfen die richtige Formel für die Aufgabenstellung herauszufinden, rechnen musst du aber immer noch alleine!

LG

Woher ich das weiß:Studium / Ausbildung – Diplom Wirtschaftsinformatiker
Pekielfilosofo 
Fragesteller
 21.02.2024, 14:31

Danke für die kurze Einführung in die Grundlagen der Informatik. Darf fragen warum deine Antworten jeweils damit untermauerst woher du das weisst? Ich möchte dir wirklich nicht zu nahe treten aber wirkt auf mich so ganz minim nach Überheblichkeit. Falls dir die Fragen hier zu doof sind dann musst du ja nicht antworten sondern kannst mit anderen Fachpersonen auf deinem Niveau fachsimplen. So ganz nebenbei habe ich vor langer Zeit auch mal eine Ausbildung zum Applikationsentwickler absolviert und viele Jahre in dem Bereich gearbeitet. Jetzt bin ich seit fast 15 jahren sozialpädagoge (das erklärt wohl auch meine hypersensible Reaktion) 😉

Danke dir auf jedendall für die Zeit welche du aufbringst um mir jeweils ausführlich zu antworten.

0

Weil es eine KI ist und kein Mensch und nicht für Rechnungen konzipiert wurde

Pekielfilosofo 
Fragesteller
 21.02.2024, 13:56

Ok schon klar aber andere um ein vielfaches komplexere mathematische Aufgaben löste er bisher immer tadellos. Darum frag ich mich halt was hier schief gelaufen ist.

0
GuteAntwort2021  21.02.2024, 13:59
@Pekielfilosofo

Dann liegt das daran, dass es bereits eine Antwort bezüglich der mathematischen Aufgabe in den Trainingsdaten gefunden hat. Irgendwo im Internet wurde exakt diese Aufgabe bereits schon mal berechnet.

Oder aber du bekamst ein falsches Ergebnis und hast es nicht als falsch erkannt.

0
Pekielfilosofo 
Fragesteller
 21.02.2024, 14:40
@GuteAntwort2021

Also mein weiter unten aufgeführter test mit einer leicht komplexeren Rechnung hat es prima gelöst. Habs sogar dank deinem Hinweis extra von Google Assistant nachrechnen lassen 😀 (nein natürlich mit Taschenrechner)

0
Pekielfilosofo 
Fragesteller
 21.02.2024, 15:32

Ach ja, der Vergleich mit einem Menschen hinkt meiner Meinung nach ziemlich.

Wenn Menschen, von wem auch immer, speziell für Rechnungen konzipiert worden wären, dann wären Erfindung wie Rechenschieber, Taschenrechner und folglich auch Computer per se völlig Sinnfrei gewesen.

Genau darum wurden Computer ja überhaupt gebaut, weil sie in aberwitzigem tempo milliarden rechenoperationen nahezu fehlerfrei bewältigen können.

Was sie jedoch im Gegensatz zum Menschen (noch) nicht leisten können sind Intuitive Gedankensprünge wie ein Einstein, Tesla oder Newton vollbracht haben. Aber ich vermute mal, dazu werden AGIs früher oder später auch in der Lage sein.

Die einzigen Rechnungen mit denen ich mich als Mensch tatsächlich noch rumschlagen muss sind die in meinem Briefkasten 😵‍💫

0

Laut Fefe hat KI kein Konzept von Wahrheit.

Das bedeutet, dass die KI plausibel klingende Texte generiert, nach Wortwahrscheinlichkeiten, ohne die Texte auf arithemetische Korrektheit zu prüfen.

Bei Mathe sollte man sich deswegen nicht auf die KI verlassen.

Pekielfilosofo 
Fragesteller
 21.02.2024, 16:16

Vielen Dank auch für deinen Beitrag.

Ich frage mich gerade von wem sich Fefe in Bezug auf sein Webdesign hat beraten lassen. Ja ok hab das "Impressum" am Ende auch gelesen. Reines HTML - ohne schnickschnack aber immerhin css hätte er im Sinne der Lesbarkeit verwenden können. Nein entschuldige die Ausschweifung. Sollte eher humorvoll als böse gemeint sein.

Aber ich verstehe den Bezug zu meiner gestellten Frage nicht wirklich. Was hat die falsch gelöste Rechenaufgabe damit zu tun ob eine KI ein Konzept von Wahrheit kennt?

Falls es mir weiterhilft kannst es gerne genauer ausführen aus dem Artikel bin ich auch nicht schlauer geworden.

Übrigens bin ich selbst nicht sicher ob jedes Individuum nur das Konzept seiner eigenen "Wahrheit" kennt oder ob es tatsächlich für alles und jeden ein universell geltendes Gesetz gibt was die Wahrheit ist. Früher dachte man noch es sei wahr, dass die erde eine scheibe sei. Bis man bemerkt hat oha stimmt gar nicht. Wenn es dazumal schon GPT gegeben hätte dann wäre die auskunft auf die Frage welche Form die erde hat gemäss ihrem "Verständniss " von der damals geltenden wahrheit eben gewesen: eine Scheibe. Tja hat sie nun die wahrheit gesagt oder nicht?

0
Pekielfilosofo 
Fragesteller
 21.02.2024, 18:39

Das mit dem rechnen hab ich mir vorgemerkt. Danke

0

Wie andere schon sagen. Es ist ein Werkzeug das aufgrund von deinem eingabe text einen ausgabetext berechnen soll. Chat GPT kann in dem sinne nicht rechnen.

Wenn du Chatgpt nur mit quellen fütterst in denen 2+2=5 ist wird chat gpt dir auf die frage was ist 2+2 mit 5 antworten. Weil chatgpt eben keine ahnung hat was 2+2 wirklich bedeutet.

Solche fehler zeigen schön die grenzen dieser art von KIs auf.