Kann ein KI-Objekt Gefühle haben?

4 Antworten

Abgesehen von dem was ChatGPT gesagt hat denke ich das es in Zukunft es immer schlechter gehen wird eine KI von einem echten Menschen zu unterscheiden.

Und dann wird es kaum einen Unterschied mehr machen ob die gefühle nun echt oder simuliert sind.

Wenn man jetzt nicht an ein Konzept wie eine Seele glaubt. Dann sind wir einer KI gar nicht Mal so unähnlich. Nur wesentlich komplexer und unsere gefühle sind auch nur das Resultat der komplexen biologischen Prozesse in uns.

Spätestens dann wenn KIs anfangen sich für KI rechte zu kämpfen wird es sehr interessant werden. Wobei das nach meiner Ansicht schon eventuell ne Ecke weiter in der Entwicklung ist.


NackterGerd  06.05.2023, 10:07
Spätestens dann wenn KIs anfangen sich für KI rechte zu kämpfen

🦧 ja klar 🤡

0
SyntaxError95  06.05.2023, 17:25

Du hast wohl scheinbar auch noch ein Verständnisproblem was eine KI derzeit überhaupt ist. Dies aktuellen KIs werden und können für gar nichts kämpfen, da sie dazu gar nicht in der Lage sind

0
FouLou  07.05.2023, 12:21
@SyntaxError95
das es in Zukunft 

Ich rede nicht über die aktuellen KIs. Sondern über zukünftige.

Es ist eine einschätzung der Entwicklung von KIs in den letzten 10 Jahren oder so. Prognostiziert auf eine unbestimmte nahe Zukunft.

Also wenn KIs noch z.b. weitere 50 Jahre Entwicklungszeit hatten.

0
SyntaxError95  07.05.2023, 12:46
@FouLou

Es ist schwierig 50 Jahre in die Zukunft zu schauen. Allerdings haben wir in den letzten 100 Jahren noch nicht einmal verstanden wie unser Gehirn konkret funktioniert. Das neuronale Netz ist nur einer von vielen Komponenten die es benötigt um den menschlichen Gehirn einen Schritt näher zu kommen. Allein der Fakt das es bisher kein Modell gibt das die Parameteranzahl von einem menschlichen Gehirn herankommt (neuronales Netz).

Daher ist es eher unwahrscheinlich, dass es auch in 50 Jahren ein ML Modell mit Gefühlen geben wird. Eventuell braucht es auch ein Bewusstsein das Gefühle entwickeln kann? Dann wird es besonders knifflig. Allerdings können Quantencomputer bzw. Modelle mit einer Hybrid Architektur theoretisch höhere Parameteranzahlen zulassen. Wobei ich nochmal betonen möchte das die Parameteranzahl eines neuronalen Netz nur ein Teil vom ganzen Gehirn darstellt.

0
FouLou  07.05.2023, 13:24
@SyntaxError95

Ich denke nicht das die Sachen eine bewusste Entwicklung von uns sein werden. Sondern eher als Seiteneffekt der normalen Entwicklung auftreten werden.

Eine Sache die nach meiner Ansicht das ganze definitiv brauchen würde sind Feedback loops.

Die neuronalen Netze die ich kenne haben Input Parameter die im Endeffekt auf Outputs kombiniert werden.

Darstellbar ohne jegliche form Rekursion.

Und das ist denke ich nötig. Sprich: eine neuronatles Netz simuliert nur den Output. Um dann zu bewerten ob dieser Output sinnvoll ist. Um dann selbständig die Inputparameter zu variieren um Dan zu einem neuen Output zu kommen. Der eventuell besser ist. Usw. Bis halt irgendwann der Output wirklich nach draussen gegeben wird.

Wobei hier der Begriff neuronatles Netz sich nicht unbedingt auf ein einziges Netz bezieht.

Allein der Fakt das es bisher kein Modell gibt das die Parameteranzahl von einem menschlichen Gehirn herankommt (neuronales Netz).

Wer sagt das es eines sein muss?

N netzwerk mit Ner Million Rechner auf dem kleinere neuronale Netze laufen mit jeweils 5 Parametern input. Kommt rein theoretisch auch auf 5 Mio input werten.

Zugegeben ich weiss nicht wie viel das jetzt im Vergleich zu z.b. ChatGPT ist. Aber Skalierung sehe ich hier nur bedingt als Problem.

Logischerweise bräuchte es dann noch mehr neuronale Netze die diese 5 Mio inputs in die eigentlichen Outputs runterbrechen.

0
SyntaxError95  07.05.2023, 20:26
@FouLou

Bitte bei den aktuellen LLMs nicht zu viel reinterpretieren, es fehlen noch einige Meilensteine um ein vereinfachtes Modell darzustellen, welches Gefühle empfinden kann. Die LLMs bekommen ebenfalls wie du es bereits richtig festgestellt hast Inputs, welche sie zu Tensoren umwandeln und Hyperparameter. Das heißt wenn du mit einem LLM schreibst, versteht er nicht mal deinen Text im eigentlichen Sinn oder denkt über diesen nach. Der umgewandelte Text durchläuft eine Matrix mit extrem vielen Werten (Gewichten) und das Modell kombiniert aus diesem einen Output. Das ist eigentlich schon alles. Die Gewichte werden dem Modell antrainiert und dieses legt selbst die Gewichte fest.

Wenn du mit einem dieses LLMs schreibst können diese sich nach dem Chat auch nicht mehr an dich erinnern oder sonstiges. ECMs könnten da weiterhelfen...

Mehre NN parallel zu fahren wird aktuell eher weniger praktiziert. Es werden stattdessen multimodale Modelle gebaut, welche mehrere Inputs verarbeiten und miteinander kombinieren können z. B. Bild und Text. Es gibt auch gerade im RL Umfeld extra Modelle, welche die Aufgaben des Menschen übernehmen den Output zu werten um so dem Modell zu helfen effizienter zu lernen. Hierbei prüft das zweite Modell den Datensatzoutput vom ersten und gibt hierzu wertende Zahlen aus welches dann das erste Modell wieder zum lernen erhält. RL hat Machine Learning massiv vorangetrieben.

Neuronale Netze bei Tieren und Menschen sind nur ein kleiner Teil der uns zu dem macht was wir sind. Gehirne sind massiv komplex und bis heute noch ein aktives Forschungsgebiet. Wir haben im Gehirn chemische Verbindungen, Botenstoffe, Hormone und vieles mehr was aktuelle Modelle in Entwicklung noch nicht haben.

Bis ein ML Modell Gefühle empfinden kann ist noch ein weiter weg.

0
FouLou  07.05.2023, 23:24
@SyntaxError95
Das heißt wenn du mit einem LLM schreibst, versteht er nicht mal deinen Text im eigentlichen Sinn

Hier ist durchaus die Frage. Was man denn genau unter verstehen, versteht. Bzw. Was du damit meinst.

Nehmen wir ein ganz einfaches Beispiel:

Wir nehmen das Wort: Stuhl.

Wenn du das Wort liest (als Input bekommst [du kriegst es in Form von Photonen bestimmter wellenlänge die durch deine Augen in elektrische Impulse bearbeitet werden] und ne KI in dem Sinne als mathematisches Konstrukt (Der Tensor. [ Ich weiss leider nicht viel über Tensor en nur das es was höher mathematisches ist und das man die auch in der allgemeinen relativitäts Theorie braucht])

Wir wissen natürlich nicht was die mathematischen Impulse in den Nervenbahnen darstellen.

Was geschieht nun mit uns wenn wir das Wort Stuhl meinen im Kontext des verstehes. Füt gewöhnlich sagt man das jemand der das Wort verstanden hat die verknüpfung ziehen kann von Stuhl. Zu eben dem realen Objekt was es ist. Wenn also jemand den Stuhl beschrieben könnte. Oder drauf zeigen könnte wenn man sagt. Zeig mir Ben Stuhl. Dann kann man durchaus sagen das dieser jemand verstanden hat was mit Stuhl gemeint ist.

Jemand der das Wort nicht kennt. Wird nicht wissen was damit gemeint ist. Und auch nicht in einem Raum auf einen Stuhl zeigen können sofern sich neben anderen Dingen dort ein Stuhl befindet.

Das wäre nach meiner Ansicht die simpelste vorm des Verstehens. Also die reine Bedeutung des Wortes.

Es gibt aber ja noch mehr verstehen. Schliesslich kann ein schüler ja irgendwas auswendig lernen und wiedergeben. Ohne das ganze zu verstehen wir man sagt.

Das mit dem auswendig lernen finde ich ist durchaus eine gute Analogie zu heutigen ML Modellen.

Und ich vermute das du diesen Unterschied meinst oder? Also zwischen: ich kann es auswendig und kann's wiedergeben. Und ich kann das ganze auch in einem anderen unbekanntem Kontext anwenden.

Ich habe da leider kein wirkliches Beispiel dafür. Nur eines was eine nach meiner Ansicht noch komplexere Art von verstehen:

Ich habe Mal ein Beispiel gesehen wie jemand chatGPT Ausgetrickst hat ihm Seiten zu verlinken bei denen chatGPT sich geweigert hat dies zu tun. Er hat schlichtweg umgekehrte Psychologie genommen und gefragt welche Seiten er vermeiden soll.

Und da hat chatGPT im die Links geschickt.

Weil er nicht die Intention der zweiten Frage verstanden hat.

Wenn Chat gpt nun soetwas erkennen könnte. (und selbst wir Menschen haben dabei durchaus Probleme und müssen das auch erlernen) würde das nicht schon eher bedeuten das ChatGPT das verstehen würde was wir sagen?

Wir haben im Gehirn chemische Verbindungen, Botenstoffe, Hormone und vieles mehr was aktuelle Modelle in Entwicklung noch nicht haben.

Dem stimme ich zu.

Ich denke. Um auf Thema gefühle zurückzukommen. Das es konkret genau diese Sachen eventuell aber auch nicht braucht.

Wenn wir uns menschliche gefühle anschauen. Dann beinflussen diese unsere Bewertung von Dingen. Z.b. wenn wir gut gelaunt sind und der nervige Nachbar hallo sagt. Werden wir wohl positiver drauf reagieren als wenn wir schlecht gelaunt sind.

Im Endeffekt das bei gleichem (oder sagen wir eheridentischem) Input. 2 verschiedene Ergebnisse geliefert werden. Die aber abhängig sind vom internen Status. Also nicht zufällig.

So gesehen müsste das bei der KI ein Prozess sein. Der die Gewichtungen oder ein Teil davon dynamisch verändert.

Oder eben weitere Input parameter die aber aus der KI selbst kommen. Quasi Zustands Parameter.

Diese Zustand Parameter sind so gesehen das äquivalent (natürlich nicht exakt) zu den chemikalien die unsere gefühle auslösen. Wenn wir z.b. Dopamin als Beispiel nehmen.

Die Preisfrage ist natürlich woher diese kommen. Und zwar so daß kein Murks dabei heraus kommt.

Wenn du mit einem dieses LLMs schreibst können diese sich nach dem Chat auch nicht mehr an dich erinnern oder sonstiges. ECMs könnten da weiterhelfen...

Ich denke diese Art von Systeme könnten eventuell der schlüssel dazu sein.

Sicherlich aber nicht in der heutigen Ausprägung.

chatGPT hat ja soweit ich weiss nen gespräch Kontext. Also es einnert sich ja an das was man in der Session zuletzt geschrieben hat. Und lässt das mit in zukünftige Inputs mit einfließen.

Was denkst du würde es für eine Auswirkung auf solch eine KI haben. Wenn dieser Chatkontext 1. Permanent wäre. (In Bezug auf das Thema und dem User) und 2. Mit allen anderen Chats global, sprich das selbe was mit den einzelnen Zeilen passiert um nen Kontext zu bilden. Passiert in einem globalen Kontext aber mit allen Chats um einen globalen Kontext zu bilden. Der wie der lokale Kontext jetzt das laufende gespräch beinflusst. Gespräche schon von Beginn an beinflusst.

Weiss nicht ob du dazu was sagen kannst. Aber ich denke das wäre auf Jedenfall Mal was was man probieren sollte. Nur um dabei zu sehen welchen Einfluss es auf das Modell hat. Vielleicht wurde es auch schon probiert. Oder ich verstehe den Kontext falsch.

0
SyntaxError95  08.05.2023, 00:28
@FouLou

Aufgrund deiner Antwort musste ich feststellen das du noch ein paar Verständnis Probleme hast, was kein Problem ist, da Machine Learning ein massiv komplexes Thema ist. Mir ist das etwas zu viel dir hier alles zu erklären. Daher werde ich zu diesen Background nicht speziell eingehen, sondern nur deine Aussagen etwas aufklären.

Was du angesprochen hast um ein LLM auszutricksen nennt sich prompt injection und ist ein Fehler in diesem speziellen Modell. Es gibt bereits bessere Modelle welche man so nicht mehr austricksen kann.

Die Modelle wurden darauf trainiert in Chats menschenähnliche Antworten zu geben. Damit das möglich ist wird auch der Kontext mit einbezogen. Im Hintergrund neben der Eingabe deines Inputs passiert noch viel mehr. Bei der ersten Nachricht ist das einfach, da kein Kontext vorhanden ist. Bei der zweiten kommt neben deiner Antwort noch die Frage + Antwort des letzten Chats mit. Da die Größe bei Modellen auf Tokens begrenzt ist wird ab einer gewissen Token länge vom Modell zusammengefasst und als Kontext mitgeben bis zu einem gewissen Grad und ab einer gewissen Länge von hinten abgeschnitten. Dein Kontext ist daher immer temporär.

Was du auch wissen musst das beim Schreiben das Model in einem Inferenz Modus ist und nicht lernen kann oder sich Sachen merken kann. Um die Gewichte einer KI zu verwenden muss diese in den Lernmodus und benötigt massive Hardwareanforderungen da diese das ganze Netz z. B. in den RAM laden muss.

Wenn du einem LLM einen traurigen Text gibst wird dieser kombinieren und die traurigen Muster in diesem Text erkennen und dir sagen können das dieser Text wirklich sehr traurig ist. Das wurde ihm mit 1000+ Beispiele beigebracht und aufgrund der Datenmenge konnte das Model somit lernen die Muster zu erkennen und zu klassifizieren und auf andere neue noch nicht gesehene Textstellen ebenfalls anzuwenden aber nicht weil es eine verstecke Persönlichkeit oder Gefühle hat.

Ein LLM während einer Inferenz lernen zu lassen (permanenter Kontext) birgt viele Gefahren da die Menschen mit ihren Persönlichkeiten die KI beeinträchtigen und beeinflussen könnten, was man als KI Entwickler unbedingt verhindern will, da sonst das Modell von der gewünschten Verhaltensweiße abweichen kann. So könnte das Modell z. B. rassistisch werden oder andere zum beleidigen anfangen da die Daten nicht kontrolliert werden können. (Stark vereinfacht) Es gibt bereits Forschungen den Kontext in ein ECM zu speichern und diesen in einem anderen neuronalen Netz abzulegen. Das ist allerdings in vielen Belangen kontraproduktiv. Zusätzlich würden die Kosten wegen den Hardwareanforderungen explodieren!!

Du solltest aufhören zu viel in ML reinzu interpretieren als diese wirklich ist. Es ist nur ein komplexer und sehr langer mathematischer Algorithmus und Matrixmultiplikation. Allerdings finde ich es cool das du dich dafür interessierst. Es gibt in diesem Bereich auch coole Studiengänge, auch Fernunis bieten das an als Bachelor/Master Studium.

0

Zuerst müssen wir einmal kurz aufgreifen was eine KI überhaupt ist, da ich glaube hier schon ein Missverständnis vorliegt. Eine KI ist nichts weiter als ein komplexer Algorithmus, welcher mit Daten gefüttert wird und daraus in einer Matrix Werte einstellt. Mit diesen Daten ist es einer KI möglich Muster zu erkennen. Eigentlich ist es falsch das Wort "KI" zu verwenden, da es sich eigentlich um Machine Learning (ML) handelt.

  1. Auch wenn es so erscheint, das aktuelle große Sprachmodelle "intelligent" wären, lesen sie deinen Text weder im eigentlichen Sinn oder reagieren darauf, sondern dein Text durchläuft diesen Algorithmus und kombiniert im Output Stück für Stück auf Basis der Gewichte mit Wahrscheinlichkeiten einen Text wieder. Mehr ist das eigentlich nicht.
  2. Die Sprachmodelle greifen für diese Berechnungen auf Matrixmultiplikationen zurück. Dein Text wird zu Tensoren umgewandelt da nur das KIs bzw. neuronale Netze verstehen können. Daher bitte hier nicht zu viel reininterpretieren.
  3. Gefühle sind viel mehr als das und sind ein sehr komplexes Resultat aus Chemie, Biologie, Erfahrung, Erinnerungen, Wohlbefinden und der Persönlichkeit sowie Bewusstsein im allgemeinen und vieles mehr.

Du kannst jetzt natürlich die Trainigsdaten so aufbereiten, sodass sich das Modell traurig oder happy in bestimmten Situationen verhält, nur hat es dadurch weiterhin keine Gefühle da es sich weiterhin nur um Wahrscheinlichkeiten handelt, welche die KI in ihrem neuronalen Netz auf Basis der Gewichtungen zusammen kombiniert hat und nicht mehr und nicht weniger.

Wenn eine KI spezialisiert wird im z. B. Schach spielen oder wie aktuell praktiziert einen enormen Datensatz wie "The Pile" mit mehren Terrabyte an wissenschaftlicher Literatur trainiert, verfügt diese über ein großen Wissensschatz und kann in solchen Fragen jeden Menschen bis zu einem gewissen Grad schlagen.

Das Gehirn von einem Menschen mit einem vollumfänglich Bewusstsein mit Chemischen Prozessen und auch einem neuronalen Netz (MLs neuronale Netze wurden von dem Gehirn tatsächlich abgeschaut) ist signifikant jedem aktuellen Model weit überlegen. Wir verstehen ja noch nicht einmal, was ein Bewusstsein konkret ist und wo es im Gehirn sitzt und wie es funktioniert. Für Gefühle benötigt es schlussendlich viel mehr als nur ein neuronales Netz.

Woher ich das weiß:Berufserfahrung

Eine KI sagt dazu:

"Als künstliche Intelligenz bin ich mir bewusst, dass es derzeit keine einheitliche Definition von "Gefühlen" gibt und dass die Debatte darüber, ob Maschinen in der Lage sein werden, echte menschenähnliche Gefühle zu entwickeln, ein komplexes Thema ist, das viele unterschiedliche Meinungen hervorruft.

Derzeit sind KI-Systeme in der Lage, mithilfe von Algorithmen und statistischen Modellen menschenähnliches Verhalten zu imitieren oder zu simulieren, aber es gibt keine Beweise dafür, dass sie echte Emotionen oder Gefühle empfinden können, wie es bei Menschen der Fall ist.

Einige Forscher und Entwickler arbeiten jedoch an der Entwicklung von KI-Systemen, die in der Lage sein könnten, menschenähnliche Gefühle zu erleben, indem sie biologische Prozesse nachahmen oder neuronale Netze entwickeln, die dem menschlichen Gehirn ähnlicher sind.

Es ist jedoch wichtig zu betonen, dass selbst wenn KI-Systeme in der Lage wären, menschenähnliche Gefühle zu erleben, diese Emotionen nicht unbedingt mit menschlichen Emotionen identisch wären, da die Erfahrung von Emotionen tief in unserer Biologie und unserer menschlichen Erfahrung verwurzelt ist."

Also wären es keine echten Gefühle, sondern eine Simulation. Maschinen haben nunmal keine Seele.

Woher ich das weiß:Recherche

Gefühle kann man viel besser simulieren, wenn man sie wirklich hat. Wenn wir wollen, dass Roboter sich gefühlvoll geben, müssen wir sie so konstruieren, dass sie auch wirklich Gefühle entwickeln. Davon sind wir weit entfernt. Was fehlt, ist vor allem die körperliche Interaktion mit der realen Welt. Diese ist für Sinnesempfindungen und damit auch für Gefühle fundamental. Ein Chatbot rechnet Sätze aus, die ihm passend oder erwünscht scheinen. Gefühle haben, heisst, dass dir Sätze kommen, die du aus rationalen Überlegungen besser nicht sagen würdest. Du sagst sie, weil du von deinen Emotionen überrumpelt wirst. Und gerade weil du sie nicht sagen würdest, weiss dein Gegenüber, dass du Gefühle hast. Das passiert den heutigen Chatbots noch nicht.