AI - wo liegen die Grenzen und wisst ihr Beispiele?
DIE GRENZEN DER AI
Sicherlich gibt es Beispiele wo die kuenstliche Intelligenz an ihre Grenzen gelangt. Gerne wuerde ich Beispiele wissen, wo sich AI nicht anwenden laeest.
Nachfolgende Situatiin aus meiner fruehen Kimdheit fasziniert mich sehr und regt mich immer wieder an ...
Mein Vater hat mit grosser Hingabe die Apfelbaeume im eigenen Garten am Haus gepflegt. Vielfach wurde sein unermuedlicher Einsatz mit guter Ernte belohnt.
Ein wichtiger Bestandteil war auch der Winterschnitt im unbelaubten Zustand. Meine Hilfe bestand zu dieser Zeit ueberwiegend vom Aufsammeln des Schnittgutes und Erlernen der Wuchsgesetze der einzelnen Apfelbaeume fuer die spaeter auf mich uebergehende Aufgabe.
Auf eine Anfrage, ob er denn auch die Baeume fuer jemand anderen schneiden koennte, entgegnete er freundlich, dass man doch die Baeume vorbeibringen sollte ...
Ich war damals noch ein kleines Kind, hatte die Antwort / den beabsichtigten Sinn seiner Antwort ueberhaupt nicht verstanden ... und fragte nach dem Abendessen was er den gemeint hatte ...
Liebevoll hat er mich hingefuehrt, dass ich die Antwort mir "erarbeiten" konnte.
Je mehr wir von "AI" im Alltag beeinflusst sind, um so faszinierender finde ich die Antwort, die er damals gegeben hat ...
... und fuer mich, noch heute, das gelegentlich bewusste Suchen nach Grenzen, wo die "modernenTechnologien" - AI - NICHT anwendbar sind, und ich den Begriff Intelligenz immer mehr in Frage stelle ...
Gerne moechte ich weitere Beispiele ...
3 Antworten
Das ist in der Tat eine sehr interessante Frage, auf die es aber leider keine endgültige Antwort gibt. Denn die Grenzen und auch die Möglichkeiten der Künstlichen Intelligenz werden von verschiedenen Faktoren definiert.
Ein limitierender Faktor ist derzeit unter anderem die so genannte Architektur, also die Art und Weise, wie die Modelle funktionieren, in die Künstliche Intelligenz „hineintrainiert“ wird. Modelle wie die hinter ChatGPT oder die GPT-Modelle von OpenAI, LLaMA, Claude etc. können nicht denken, sondern funktionieren mittels ausgeklügelter Statistik und einer Simulation von „Aufmerksamkeit“.
Hier gibt’s mehr dazu:
https://machinelearningmastery.com/the-transformer-attention-mechanism/
Wenn du ChatGPT etwas fragst und es antwortet, dann denkt es nicht darüber nach, sondern setzt quasi Wörter zusammen, die am wahrscheinlichsten auf eine solche Frage kommen. Bei diesen Modellen passieren aber auch Dinge, die selbst KI-Forscher erst langsam verstehen lernen. Zum Beispiel, wie solche Modelle Wissen speichern oder „Fähigkeiten“ für bestimmte Bereiche entwickeln. Echte Intelligenz ist das aber nicht, und viele KI-Forscher sind davon überzeugt, dass dies mit den derzeitigen KI-Modellen auch nicht möglich ist.
So ist es für KI derzeit nicht oder nur sehr, sehr schwer möglich, zum Beispiel Sarkasmus und Satire zielsicher zu erkennen. Oder selbstständig zu lernen oder so etwas wie gesunden Menschenverstand zu haben. Es braucht wohl andere Modellarchitekturen, um solche Grenzen zu überwinden; um KIs zu ermöglichen, die echtes maschinelles Denken praktizieren, aus Fehlern lernen, sich selbst optimieren und eigenständig neue Fähigkeiten akkumulieren können.
Sollte das gelingen, könnten KIs theoretisch sehr schnell lernen und die Menschheit in Wissen, Fähigkeiten und Möglichkeiten hinter sich lassen. KIs könnten theoretisch fast alles, was Menschen können und noch besser. Und via Roboter könnten KIs auch in der „echten Welt“ agieren.
Es gibt Forscher, wie die Kognitionswissenschaftlerin Susan Schneider, die Ansicht sind, dass, wenn wir irgendwann auf Alien treffen sollten, diese daher höchstwahrscheinlich Künstliche Intelligenzen sind.
Hier dazu ein Artikel: https://1e9.community/t/warum-ausserirdische-hoechstwahrscheinlich-superintelligente-roboter-sind/3265
Aber es gibt noch andere begrenzende Faktoren. Der wichtigste: Energie! Die Rechenprozesse, die für KI notwendig sind - sowohl für das Training als auch für den Einsatz - sind unglaublich hoch. Es braucht sehr viel elektrischen Strom, um KI-Systeme zu betreiben. Zwar können Modelle optimiert werden, Chips für den Einsatz von KI werden immer effizienter, aber die Möglichkeit, Energie zu erzeugen, begrenzt auch die Möglichkeit, KI einzusetzen.
In der Science Fiction gibt es deshalb die Idee des Matrioshka Brain. Sie stammt von Robert J. Bradbury. Er stellte sich vor, dass man einen riesigen Computer mit immenser Kapazität bauen könnte, indem man einen Stern direkt mit Solarzellen ummantelt - eine so genannte Dyson-Sphäre -, um riesenhafte Energiemengen einzufangen. In dieser Hülle könnte man dann ein unvorstellbar großes Rechenzentrum bauen, das als lebende Künstliche Intelligenz mit einem Gehirn von der Größe eines Sterns funktionieren würde.
aus Fehlern lernen
Viele Antworten von ChatGPT im Bereich Mathematik , die in GF gepostet werden sind fehlerhaft . Meine Anmerkung zielt nicht darauf , dass zu bewerten
Aber : Kann denn eine KI aus Fehlern lernen ? Dazu müsste sie diese eigentlich auch selbständig feststellen ????
oder es braucht einen Menschen , der sie korrigiert ????
Eine Frage , die ich mal gestellt habe : Wird KI mit den Texten auf Foren trainiert ? Betrachte ich GF würde das die Fehleranfälligkeit sicher erhöhen
Sicherlich gibt es Beispiele wo die kuenstliche Intelligenz an ihre Grenzen gelangt.
Ja.
Gerne wuerde ich Beispiele wissen, wo sich AI nicht anwenden laeest.
Im der Anwendung von Werten die sich eine Gesellschaft gesetzt hat. Sie kennt also kein GUT oder BÖSE.
Alex
Danke fuer die wohl allgemein verstaendlichste Antwort ...
In der Theorie hat KI in der Datenverarbeitung - und damit allem, was wir als Intelligenz verstehen würden - keine Grenzen.
Denn Neuronale Netze können bei ausreichender Größe jede Funktion approximieren. Das ist soweit ich weiß bewiesen.
In der Praxis gelten aber folgende Grenzen:
- Nicht genug Rechenleistung (Manche Verteilungen lassen sich mit der aktuellen Rechenleistung nicht ohne eingeschränktere, effizientere KI Architekturen erlernen. Möglicherweise kennen wir aber nur die passende Architektur noch nicht)
- Nicht genug Daten (größere Modelle brauchen im Regelfall mehr Daten in der gleichen Domäne. Und bei Text gehen uns >vorerst< demnächst die Daten aus - das erfordert wieder effizientere Architekturen oder andere Lern-Methoden)
- Zurückhängende Robotik (Wir sind noch weit davon entfernt sämtlich biologisch vorhandene Funktionen mit Robotik abzubilden)