Wird es zu einer "Intelligenzexplosion" kommen?
Es gibt die Idee das wenn KI und Robotik sich exponentiell von selbst weiterentwickelt es zu einer "Intelligenzexplosion" kommt wo innerhalb weniger Tage, Stunden oder sogar Sekunden eine Künstliche Superintelligenz(ASI) entsteht die weitaus Intelligenter ist als der Intelligenteste Mensch.
12 Stimmen
Woher hast du dieses Statement?
ChatGPT
5 Antworten
Hi!
Es gibt mittlerweile viele KI-Systeme, die Probleme lösen, bei denen die Entwickler nicht nachvollziehen können, wie die Lösung zustande kam.
Eine sich exponentiell entwickelnde KI könnte so schnell so intelligent und damit unkontrollierbar werden, dass sie zwar unglaublich viele Probleme lösen, uns aber auch ziemlich schnell auslöschen könnte.
Für solche Systeme gibt es bis jetzt zwei Lösungsansätze.
Entweder die Ressourcen einschränken, also den Zugang zum Internet limitieren. Das würde allerdings die Möglichkeiten stark einschränken.
Oder einen zweiten Kontrollalgorhythmus schaffen, der die KI im Zweifelsfall abschaltet. Nur das dieser wahrscheinlich nicht funktionieren wird.
Ich vermute, da es immer jemanden geben wird, dem moralische oder existentielle Bedenken und Risiken egal sind, es irgendwann jemand versehentlich schafft uns unter die Kontrolle einer KI zu stellen. Und wir es vielleicht noch nicht einmal direkt merken.
Intelligenzexplosion ja, aber mit katastrophalen Folgen.
https://www.scinexx.de/news/technik/waere-eine-digitale-superintelligenz-kontrollierbar/
Bei sowas spreche ich auch nicht von ChatGPT.
https://de.wikipedia.org/wiki/Existenzielles_Risiko_durch_k%C3%BCnstliche_Intelligenz?wprov=sfla1
Die KI entwickelt sich durch und Menschen weiter, durch das was wir wissen. Sie kann sich nicht von selbst weiterentwickeln. Es ist jedoch so, das die KI momentan schon mehr weiß als jener Mensch. Kein Mensch kennt das ganze Internet, die KI schon.
Jain ...
Es ist durchaus möglich und das ist ein Problem.
Die KI wird mit posts vom Internet und Social Media gefüttert. Nun erstellt auch kI Social Media Posts (TikTok ist da ganz extrem mit dem 100%igem KI-Content) und dieser KI-Content wird wieder an die KI gefüttert.
Und da diese Content meist Schwachsinn ist, aber in Massen produziert wird, glaubt die KI ihren eigenen falschem Content.
Ja das kann passieren. Die KI kann sozusagen von den Menschen "bullshit" als promp bekommen. Das sieht die KI als richtig an und unterstützt das denn, in irgendeiner Weise.
Das ist nicht der Prompt, sondern die Trainingsdaten der KI.
Verstehe. Kurz für mein Verständnis, die KI lernt nicht durch prompts sondern durch Trainingsdaten?
Exakt. Diese wird vorher mit Trainingsdaten gefüttert. Jedoch fließen auch Prompts in diese Daten ein.
OpenAI also ChatGPT hat am Anfang einfach allen Content auf Youtube, Spotify, Wikipedia, Twitter etc. kopiert und damit ihre KI trainiert (machen sie noch immer).
Fließen alle Prompts in die Trainingsdaten? Das würde ja bedeuten, das die KI falsches als richtig sehen würde (umschrieben, KI hat ja eigentlich keine Meinung).
Nun das kommt auf das Unertnehmen an.
Ich vermute aber, dass es da eine Sicherung gibt die dies verhindert. Jedoch bleibt sas Problem mit Social Media und dem KI-Teufelskreislauf immer noch.
Ja genau
Und selbst wenn wir irgendwann eine Möglichkeit finden, das zu unterscheiden, wird es immernoch jahrzehnte dauern bis Menschen genug Content generiert und Indexiert haben werden, dass eine KI tatsächlich bis zu so einem Punkt Trainiert werden kann
Und selbst dann ist es Ethisch immernoch Fragwürdig, woher der Content kommt, wie Menschen (nicht) entlohnt werden, diesen Content zu Indexen, und wie diese KI dann verwendet wird
so kann die KI auch keine eigenen Gedanken bekommen und ist auf den Mensch angewiesen
Es gibt natürlich auch Menschen die neues entdecken, so konnte die KI das neue noch nicht wissen der "Entdecker" aber schon, so hätte jener mehr wissen in diesem Gebiet.
Ja eine Intelligenzexplosion ist theoretisch möglich, jedoch kann und wird die "böse" KI keine Menschen auslöschen oder kontrollieren. Das ist reine Fiktion, Angstmache und Ablenkung von den eigentlichen Problemen der KI.
Also 50% richtig und die anderen 50% völliger Bullshit.
Die KI und ihre Erzeugnisse mögen beeindruckend wirken. Ihre "Intelligenz" besteht daraus, dass sie vorhandenen Content unter Einfluss bestimmter Befehle neu zuordnet. Die "neue Qualität" ist also nicht die Erschaffung, sondern die Reorganisation. Für uns kommt es dann wie "Intelligenz" vor.
KI lässt sich metaphorisch sehr schön als "autistischen Azubi mit Inselbegabung" bezeichnen. Das System weiß ja nicht, was es da tut und es kann auch den Content nicht wirklich eindrücklich bewerten und ist auch nicht im schöpferischen Sinne kreativ.
Ich gehe davon aus, dass mit wachsendem Fortschreiten KI generiertem Contents ein qualitativer Abwärtsstrudel entsteht, da KI-generierte Inhalte wiederum die Grundlage künftiger KI-Generierungen darstellen.
Damit entwickelt sich sozusagen eine Art "homöopathische Verdünnung" des eigentlich relevanten Stoffes.
Ich glaube auch nicht, dass KI jemals federführend an die wirklich wichtigen Prozesse herangelassen wird. Sie wird lediglich ein probates Hilfsmittel für die Bewältigung bestimmter Aufgaben bleiben. Nicht mehr - nicht weniger.
Wird wahrscheinlich noch einige Jahre dauern, bis es so weit ist, aber mit ChatGPT und Konsorten sieht man ja jetzt schon, dass es langsam in die Richtung geht. Erst sind die KIs nur Unterstützung, dann können sie irgendwann Aufgaben komplett automatisch ausführen und dann werden wahrscheinlich nach und nach alle Jobs von KIs übernommen. Bis dahin kann es gut sein, dass die eine oder andere KI in der Lage ist, selbst zu forschen und selbst Verbesserungen an bestehenden KIs vorzunehmen, wodurch es dann erst langsam, dann immer schneller zu einem Intelligenzwachstum kommt.
Ob wir uns davor fürchten müssen oder nicht, bleibt abzuwarten. Meine Hoffnung ist ja, dass wir irgendwann ohne Arbeit ein angenehmes Leben führen können, weil lauter Roboter sich um unsere Wünsche kümmern.
KI hat kein Empfinden, Emotionen oder Gefühle sowie keine Motivatoren oder Gründe.
Eine KI wie ChatGPT weiß nichts, es weiß nicht einmal was es sagt. Er würfelt nur Wörter statistikbasierend zusammen ohne nur Ansatzweise zu verstehen was es eigentlich sagt oder tut.
Das mit den Jobs hat man schon in der Zeit der Industrielle Revolution gesagt und es ist nie eingetreten.
Das ist so ein Narrativ von der PR-Abteilung der AI-Unternehmen, damit diese sich nicht mit den echten Problemen und Gefahren von KI befassen müssen.
KI hat kein Empfinden, Emotionen oder Gefühle
Stimmt. Die ganzen Dinge waren für die Evolution des Menschen und auch für die Arterhaltung wichtig. Wenn es hinter einem im Gebüsch knackt, kriegt man Angst und flüchtet auf den nächsten Baum, damit man nicht vom Wolf gefressen wird. Wenn man eine attraktive Frau trifft, verliebt man sich und zeugt Kinder, damit die Menschen nicht aussterben. Dadurch, dass wir (oder zumindest die meisten von uns) das instinktiv können, gibt es heutzutage überhaupt Menschen.
Eine KI braucht aber nicht zwingend Emotionen und Gefühle. Das einzige, was man einer KI beibringen muss ist, gute von schlechten Dingen zu unterscheiden, damit sie z.B. niemanden mobbt, zu Straftaten verleitet oder verbotene Texte und Bilder produziert.
sowie keine Motivatoren oder Gründe
Die jetzigen KIs werden vermutlich von sich aus keine Motivation haben, sich selbst verbessern zu können, aber die Forscher könnten KIs genau zu dem Zweck entwerfen, dass sie neue, verbesserte KIs automatisch entwerfen können, vielleicht mit einer Art evolutionärem System, dass die KIs, die sich am Besten gegen andere durchsetzen können, wieder für weitere Abkömmlinge eingesetzt werden. Der Hauptgrund, warum KIs überhaupt eingesetzt werden, ist, dass Menschen von Natur aus faul sind und ihre Aufgaben so gut es geht auf andere abwälzen wollen. Es wird also sicher auch Forscher geben, die sich von KIs zumindest unterstützen lassen.
Eine KI wie ChatGPT weiß nichts, es weiß nicht einmal was es sagt. Er würfelt nur Wörter statistikbasierend zusammen ohne nur Ansatzweise zu verstehen was es eigentlich sagt oder tut.
Da kommen wir zu der grundsätzlichen Frage, was Intelligenz denn überhaupt ist. Übliche IQ-Tests zielen darauf ab, wie gut man sein Wissen bei bisher unbekannten Aufgaben einsetzen kann. Und auch wenn ChatGPT vielleicht nicht weiß, was es tut, kann es seine Aufgabe sehr gut erfüllen. Man gibt eine Frage ein und es kommt eine Antwort raus, die zur Frage passt, die grammatikalisch und orthografisch einwandfrei ist und nur in manchen Fällen inhaltlich nicht ganz stimmt. Dabei werden auch oft Ideen aus völlig verschiedenen Feldern kombiniert, auf die man selbst nie gekommen wäre. Es gibt Leute, die ChatGPT instruiert haben, einen Intelligenztest auszufüllen, dabei hat es einen Wert von 155 erreicht, was wesentlich besser ist, als das was die meisten Menschen schaffen.
Also ChatGPT mag zwar nicht wissen, was es tut und nur einzelne Wörter mit einer bestimmten Wahrscheinlichkeit aneinanderreihen, aber das tut es so gut, wie es auch ein intelligenter Mensch machen würde.
Wie ist es denn bei Menschen? Abgesehen von den Dingen, die wir instinktiv beherrschen, können wir die meisten Dinge auch nur durch Lernen, also indem wir es uns von anderen abschauen. Dann können wir Erinnerungen mit Wörtern verknüpfen und daraus wieder Sätze bilden, die von anderen gelesen oder gehört werden können. Das ist eigentlich nicht viel anders, als das was die LLMs heutzutage machen.
Das mit den Jobs hat man schon in der Zeit der Industrielle Revolution gesagt und es ist nie eingetreten.
Damals hatte man Angst, dass die Maschinen den Menschen die Jobs wegnehmen - mit dem faden Beigeschmack, dass man ohne Job kein Geld verdient und sich kein Haus und kein Essen leisten kann. Und es ist so gekommen, dass viele Jobs von Maschinen übernommen wurden. Wo vorher noch die ganze Familie jeden Tag auf dem Acker arbeiten musste, hat es später gereicht, wenn einer mit dem Traktor unterwegs war und noch später gab es dann nur noch eine handvoll Familien im Dorf, die sich um die Landwirtschaft gekümmert haben. Alle anderen waren erstmal ihre Jobs los, mussten sich neu umschauen und in irgendwelchen Fabriken oder Büros arbeiten.
Mit der aufstrebenden KI hab ich ja immerhin die Hoffnung, dass es nicht schlimm sein wird, den Job zu verlieren, weil die KI irgendein System entwickelt, mit dem trotzdem jeder ein angenehmes Leben führen kann.
KI hat kein Empfinden, Emotionen oder Gefühle sowie keine Motivatoren oder Gründe.
Eine KI wie ChatGPT weiß nichts, es weiß nicht einmal was es sagt. Er würfelt nur Wörter statistikbasierend zusammen ohne nur Ansatzweise zu verstehen was es eigentlich sagt oder tut.
Das mit den Jobs hat man schon in der Zeit der Industrielle Revolution gesagt und es ist nie eingetreten.
Das ist so ein Narrativ von der PR-Abteilung der AI-Unternehmen, damit diese sich nicht mit den echten Problemen und Gefahren von KI befassen müssen.