Wieso ist das so?
Chatgpt kann ja eigentlich garnicht selbst verstehen was er schreibt sondern erkennt es ja anhand von Mustern was er zusammensetzen muss. Warum kann die ki eigentlich kein richtiges Muster in einer erfundenen Sprache erkennen oder es halt wo lernen?
4 Antworten
Sprache ist ein Kommunikationsmittel - welchen Sinn sollte eine neue Sprache haben, wenn sie nicht aus den Kommunikationspartnern heraus wächst?
Eine KI könnte natürlich auch das lernen, aber das Training, das Lernen erfolgt nicht primär durch die Useranfragen sondern "vorher" durch die Betreiber. So hat ja auch ChatGPT nicht den Datenbestand von heute, sondern von irgendwann 2023, oder so.
Das kann KI auch. Ich hab mal testweise chatgpt gebeten, den Satz "Ich finde künstliche Intelligenz toll" nach klingonisch zu übersetzen.
Die Antwort:
Der Satz „Ich finde künstliche Intelligenz toll“ lässt sich auf Klingonisch sinngemäß übersetzen als:
"valbogh Qel mIw vIparHa'."
Erklärung:- valbogh Qel mIw – wörtlich: „der intelligente Denkprozess“ oder sinngemäß „künstliche Intelligenz“
- val = intelligent, klug
- bogh = Relativsatzmarker („der/die/das, der …“)
- Qel mIw = Denk- oder Überlegungsprozess
- vIparHa' = „Ich mag es“ oder „Ich finde es gut“
- vI- = Ich (Subjekt) + es (Objekt)
- par = hassen
- parHa' = nicht hassen → mögen, gut finden
Da Klingonisch eine kontextreiche Sprache mit begrenztem Vokabular ist, wird oft umschrieben. Es gibt kein direktes Wort für „künstlich“ oder „Intelligenz“ im Sinne der modernen KI, also wird es sinngemäß als „intelligenter Denkprozess“ übersetzt.
ChatGpt ist ein trainiertes Modell, welches künstliche neurologische Netze nutzt.
Die Biologie des Gehirns ist Vorbild.
Damit kann ki alles irgendwann ab einem gewissen Punkt simulieren in der Art und Weise wie Menschen.
Aber es steckt nur Logik dahinter.
Die Ki kennt keine Gefühle oder Schmerzen.
Logik aus komplexen Schaltungen.
Irgendwann kann ki mehr Verknüpfungen bilden als das menschliche Gehirn.
Dann wird ein Stück Blech intelligenter sein als wir.
Eine Ki kann dir keine Komplimente machen etc, es sieht vielleicht so aus, ist aber nur entstanden auf komplexen Logikstrukturen von Schaltungen.
Lernen ist eher ein schlechter Begriff. Nenn es Updates.
Maschienelle selbstständige agierende Systeme gibt es nicht. Es sieht nur so aus, als würde ki etwas selbständig tun.
Das ist aber bereits die Illusion.
Du redest ja nur mit dem Chat-Bot sozusagen. Das echte Modell dahinter kommst du nie zu Gesicht. Wenn eine KI hoch spezifisch auf Mustererkennung in Fantasiesprachen trainiert ist, würde sowas gehen. Vorausgesetzt es ist keine Schwachsinns-Fake Sprache.