In wiefern stellt sich KI bereits als Fehler heraus?

4 Antworten

KI stellt sich nicht als Fehler heraus, sondern man merkt langsam, dass der Hype bisschen zu groß war. Du beziehst dich wahrscheinlich auf LLMs, auch für die gibt's sinnvolle Anwendungsfälle. Den Taschenrechner halten auch nicht viele für einen Fehler, obwohl man damit teilweise "einrostet" beim Rechnen. Es ist natürlich wichtig selbst zu denken. Aber man kann sich durch KI helfen lassen. Solange man mitdenkt, verlernt man nichts und die Ergebnisse sind gut. Viele Grüße

Beziehst Du dich nur auf die Frage, ob man durch KI weniger denkt?

Das stimmt nicht.
Die gleiche Diskussion gibt's z.B. auch in Verbindung mit dem Internet und den Suchmaschinen, oder dem Taschenrechner.
Man denkt nicht weniger, man konzentriert sich aber mehr auf andere Dinge, was potentiell auch positiv sein kann.
Wenn man aber erwartet, dass jeder Mensch perfekt Kopfrechnen kann, dann sind Taschenrechner natürlich ein Problem, aber wer muss heutzutage denn perfekt Kopfrechnen können? In den meisten Fällen reichen einige Grundlagen, für den Rest nimmt man den Taschenrechner, deshalb denken die Menschen aber nicht weniger.

Das berührt auch die Frage, ob wir dümmer werden.
Auch das stimmt nicht, wir werden nicht dümmer, aber wir verlieren die Fähigkeiten, die man früher nicht automatisch lösen lassen konnte und werden besser in anderen Dingen, für die wir jetzt mehr "Zeit" haben.

Und man sollte sowieso nicht blind glauben, was KI erzählt, man muss immer mit denken.

Das merke ich auch immer wieder bei meiner Arbeit. Wenn ich ein komplexes Thema mit KI durch diskutiere und dann meine Lösung rein paste (als Kontext, oder für ein Review), dann erzählt der mir meistens, dass die Lösung super ausgereift ist. Allerdings kann der das gar nicht beurteilen, stattdessen werden komplexe Lösungen mit bestimmten Schlagworten pauschal als "ausgereift" eingestuft, weil es in den Trainingsdaten der KI häufig diesen Zusammenhang gab.

Du darfst nie vergessen, dass auch die modernste KI am Ende des Tages nur Text-Heuristiken anwendet, um zu "erraten", was die wahrscheinlichste Antwort ist. Es findet kein abstrakter Denkprozess statt, es gibt kein Verständnis und genau so muss man es auch einstufen.

Insofern kann KI sogar positive Aspekte haben, da es regelrecht zum kritisch Denken zwingt - vorausgesetzt, man will nicht auf die Nase fallen. Außerdem kann diese Arbeitserleichterung durch die Technologien dazu führen, dass man sich mehr auf das zugrundeliegende Problem konzentriert und keine Zeit bis - seit jetzt - überflüssiger Denkarbeit verschwendet und mehr Kapazitäten für den Rest hat.

Woher ich das weiß:Berufserfahrung – C#.NET Senior Softwareentwickler

KI denkt nicht.
Aber wer so oder so nicht selbst denkt - für den macht es höchstwahrscheinlich keinen Unterschied. 😉

KI ist ganz nett, wenn man nicht alles glaubt.

Aber zur Kontrolle von Usern, im Medizinischen Bereich, im Finanzwesen pervers.