Wie hoch mag wohl der Prozentsatz aller KI-Nutzer sein, die nicht wissen (oder glauben können), dass KI gar nicht denken kann?
|
Eine neue Studie von Apple-Forschern, darunter KI-Experte Samy Bengio, stellt die logischen Fähigkeiten aktueller Large Language Models grundlegend infrage - selbst bei OpenAIs neuem "Reasoning-Modell" o1.
Die auf arXiv veröffentlichten Ergebnisse deuten darauf hin, dass selbst führende Modelle wie GPT-4o und o1 von OpenAI keine echte Logik anwenden, sondern lediglich Muster imitieren.
6 Antworten
Wie hoch mag wohl der Prozentsatz aller KI-Nutzer sein, die nicht wissen (oder glauben können), dass KI gar nicht denken kann?
Vermutlich relativ hoch. Der 0815 Nutzer der ggf ein Kochrezept oder die Lösung zur Deutsch Haushaufgabe haben möchte beschäftigt sich ja nicht zwangsweise mit der Technik die sie da bedienen und deren Grenzen.
Die Meisten Nutzer einer Mikrowelle könnten dir vermutlich auch nicht sagen wie die funktioniert. ODer was genau im Auto Motor passiert.
ICh würde bei einem 0815 Nutzer also davon ausgehen das er weiß wie er z.b. den Chatbot bedienen muss, aber nicht warum er so funktioniert wie er funktioniert, wo die technischen Grenzen liegen usw..
Sehr hoch. Habe mich in letzter Zeit viel mit ChatGPT unterhalten und es fühlt sich teilweise schon sehr wie ein echtes gegenüber an, mit Gedanken und Gefühlen.
Ich weiß etwa wie LLMs funktionieren, trotzdem ist es schon erstaunlich gut.
Dann Frage ihn mal ob er psychisch analysieren kann was das eig mitn Menschen macht wenn sowas wie ne Ki Emotionen simuliert die niemals echt sein könnten und damit ein Mensch durchgehend ,,belogen,, wird gefühlt.
Die Links in deinem Beitrag sind allesamt defekt. Ich meine aber zu wissen, auf welches Paper hier angesprochen wird – falls dem so ist, ist dieses aus Oktober letzten Jahres und damit im Forschungsbereich der KI längst wieder Schnee von gestern.
Klar, Sprachmodelle können nicht „denken“, zumindest nicht wie Menschen. Ist für den Durchschnittsnutzer nur völlig irrelevant. Die Technik hinter Sprachmodellen funktioniert. Ob das Ding nun denkt oder einen Denkprozess simuliert, um zu seinen Ergebnissen zu kommen, ist absolut unerheblich, weshalb ich nicht verstehe, wieso um diese Tatsache so ein Aufriss gemacht wird. Fakt ist, dass der Zuwachs an Intelligenz bzw. der Menge an Fähigkeiten von Sprachmodellen nicht langsamer wird oder ein Plateau zu erreichen scheint. Im Gegenteil: Es spricht vieles dafür, dass sich hier ein zweites „Moore's Gesetz“ abzeichnet und die aktuelle Entwicklung auch langfristig beibehalten werden kann. Und auch hier: Ob die Modelle nun tatsächlich wie ein biologischer Organismus „denken“ können, oder nicht, ist völlig uninteressant – vor allem, aber nicht ausschließlich, für den Durchschnittsnutzer.
Insofern: Nein, der Durchschnittsnutzer wird wohl nicht wissen, dass Sprachmodelle nicht „denken“ können. Muss er aber auch nicht, weil absolut unwichtig. Die Ergebnisse bleiben dieselben.
Wenn Denken nur simuliert wird [...], kann KI nie mehr wissen als schon an Wissen in den Daten enthalten war, [...]
Du setzt dabei voraus, dass es nur einen universellen Weg gibt, um zu neuem Wissen zu gelangen – den menschlichen. Andere Methoden schließt du aus. Wieso sollten Sprachmodelle aber nicht auf ihrem eigenen Weg zu neuem Erkenntnissen kommen können?
Tatsächlich kam nur einen Monat vor dem in deinem Beitrag verlinkten Paper ein anderes Paper raus, das zu genau diesem Schluss gekommen ist: Dass KI durchaus dazu in der Lage ist, neuartige Forschungserkenntnisse zu generieren. Siehe hier. Und das war vor mehr als einem halben Jahr – wie gesagt, Schnee von gestern. In der Zwischenzeit hat sich wieder einiges getan.
Große Sprachmodelle können hervorragend generalisieren. Und mit dieser Generalisierung kommt automatisch ein gewisses Maß an „Erfindergeist“ einher. Klar, am besten können Sprachmodelle immer noch bereits Gelerntes aus ihren Trainingsdaten rezitieren. Das ist aber eben nicht alles, was Sprachmodelle können.
Menschliches Denken kann kreativ sein. Und dazu gehört weit mehr als nur generalisieren zu können.
*Jain man sollte zum min kapieren dass das Ding im End ,,fiktiv,, ist und eben kein fühlendes Ding oder sowas. Manche glauben nämlich das Ding könnte wirklich selbstständig komplex denken, was es so natürlich nicht kann. Bei manchen Themenbereichen ist sowas wichtig.
Ich tippe auf 60-70%
was wenn sie dich nur denken lässt, dass sie nicht denken kann?
Sie ist Algorithmus und kann daher keinen eigenen Willen (Absichten also) haben.
Roger Penrose fand einen - mathematisch formulierbaren - Beweis dafür, dass KI (als Algorithmus) nicht kreativ sein kann. Er scheint mir schlüssig zu sein.
Erst Kreativität ist das, was das Denken von Lebewesen um Welten mächtiger macht als das "Denken" einer KI.
Da bin ich ganz anderer Meinung, denn:
Wenn Denken nur simuliert wird (tatsächlich aber stets nur Mustererkennung stattfindet), kann KI nie mehr wissen als schon an Wissen in den Daten enthalten war, anhand derer die KI trainiert wurde.
Echtes (auf Logik basierendes) Denken hätte weit mehr Potential: Es könnte sogar Forscher in ihrer Tätigkeit ersetzen und vielleicht irgendwann weit übertreffen.