AMA: Themenspecial 07. Juni 2024
AMA: Künstliche Intelligenz (mit Michael Förtsch von 1E9) 👾
Alles zum Themenspecial

AI - wo liegen die Grenzen und wisst ihr Beispiele?

3 Antworten

Das ist in der Tat eine sehr interessante Frage, auf die es aber leider keine endgültige Antwort gibt. Denn die Grenzen und auch die Möglichkeiten der Künstlichen Intelligenz werden von verschiedenen Faktoren definiert.

Ein limitierender Faktor ist derzeit unter anderem die so genannte Architektur, also die Art und Weise, wie die Modelle funktionieren, in die Künstliche Intelligenz „hineintrainiert“ wird. Modelle wie die hinter ChatGPT oder die GPT-Modelle von OpenAI, LLaMA, Claude etc. können nicht denken, sondern funktionieren mittels ausgeklügelter Statistik und einer Simulation von „Aufmerksamkeit“.

Hier gibt’s mehr dazu:

https://machinelearningmastery.com/the-transformer-attention-mechanism/

Wenn du ChatGPT etwas fragst und es antwortet, dann denkt es nicht darüber nach, sondern setzt quasi Wörter zusammen, die am wahrscheinlichsten auf eine solche Frage kommen. Bei diesen Modellen passieren aber auch Dinge, die selbst KI-Forscher erst langsam verstehen lernen. Zum Beispiel, wie solche Modelle Wissen speichern oder „Fähigkeiten“ für bestimmte Bereiche entwickeln. Echte Intelligenz ist das aber nicht, und viele KI-Forscher sind davon überzeugt, dass dies mit den derzeitigen KI-Modellen auch nicht möglich ist.

So ist es für KI derzeit nicht oder nur sehr, sehr schwer möglich, zum Beispiel Sarkasmus und Satire zielsicher zu erkennen. Oder selbstständig zu lernen oder so etwas wie gesunden Menschenverstand zu haben. Es braucht wohl andere Modellarchitekturen, um solche Grenzen zu überwinden; um KIs zu ermöglichen, die echtes maschinelles Denken praktizieren, aus Fehlern lernen, sich selbst optimieren und eigenständig neue Fähigkeiten akkumulieren können.

Sollte das gelingen, könnten KIs theoretisch sehr schnell lernen und die Menschheit in Wissen, Fähigkeiten und Möglichkeiten hinter sich lassen. KIs könnten theoretisch fast alles, was Menschen können und noch besser. Und via Roboter könnten KIs auch in der „echten Welt“ agieren.

Es gibt Forscher, wie die Kognitionswissenschaftlerin Susan Schneider, die Ansicht sind, dass, wenn wir irgendwann auf Alien treffen sollten, diese daher höchstwahrscheinlich Künstliche Intelligenzen sind.

Hier dazu ein Artikel: https://1e9.community/t/warum-ausserirdische-hoechstwahrscheinlich-superintelligente-roboter-sind/3265

Aber es gibt noch andere begrenzende Faktoren. Der wichtigste: Energie! Die Rechenprozesse, die für KI notwendig sind - sowohl für das Training als auch für den Einsatz - sind unglaublich hoch. Es braucht sehr viel elektrischen Strom, um KI-Systeme zu betreiben. Zwar können Modelle optimiert werden, Chips für den Einsatz von KI werden immer effizienter, aber die Möglichkeit, Energie zu erzeugen, begrenzt auch die Möglichkeit, KI einzusetzen.

In der Science Fiction gibt es deshalb die Idee des Matrioshka Brain. Sie stammt von Robert J. Bradbury. Er stellte sich vor, dass man einen riesigen Computer mit immenser Kapazität bauen könnte, indem man einen Stern direkt mit Solarzellen ummantelt - eine so genannte Dyson-Sphäre -, um riesenhafte Energiemengen einzufangen. In dieser Hülle könnte man dann ein unvorstellbar großes Rechenzentrum bauen, das als lebende Künstliche Intelligenz mit einem Gehirn von der Größe eines Sterns funktionieren würde.


Halbrecht  08.07.2024, 23:34
aus Fehlern lernen

Viele Antworten von ChatGPT im Bereich Mathematik , die in GF gepostet werden sind fehlerhaft . Meine Anmerkung zielt nicht darauf , dass zu bewerten

Aber : Kann denn eine KI aus Fehlern lernen ? Dazu müsste sie diese eigentlich auch selbständig feststellen ????

oder es braucht einen Menschen , der sie korrigiert ????

Eine Frage , die ich mal gestellt habe : Wird KI mit den Texten auf Foren trainiert ? Betrachte ich GF würde das die Fehleranfälligkeit sicher erhöhen

Vom Beitragsersteller als hilfreich ausgezeichnet
Sicherlich gibt es Beispiele wo die kuenstliche Intelligenz an ihre Grenzen gelangt.

Ja.

Gerne wuerde ich Beispiele wissen, wo sich AI nicht anwenden laeest.

Im der Anwendung von Werten die sich eine Gesellschaft gesetzt hat. Sie kennt also kein GUT oder BÖSE.

Alex


Sonnenschein944 
Beitragsersteller
 06.08.2024, 20:41

Danke fuer die wohl allgemein verstaendlichste Antwort ...

In der Theorie hat KI in der Datenverarbeitung - und damit allem, was wir als Intelligenz verstehen würden - keine Grenzen.

Denn Neuronale Netze können bei ausreichender Größe jede Funktion approximieren. Das ist soweit ich weiß bewiesen.

In der Praxis gelten aber folgende Grenzen:

- Nicht genug Rechenleistung (Manche Verteilungen lassen sich mit der aktuellen Rechenleistung nicht ohne eingeschränktere, effizientere KI Architekturen erlernen. Möglicherweise kennen wir aber nur die passende Architektur noch nicht)

- Nicht genug Daten (größere Modelle brauchen im Regelfall mehr Daten in der gleichen Domäne. Und bei Text gehen uns >vorerst< demnächst die Daten aus - das erfordert wieder effizientere Architekturen oder andere Lern-Methoden)

- Zurückhängende Robotik (Wir sind noch weit davon entfernt sämtlich biologisch vorhandene Funktionen mit Robotik abzubilden)