Was, wenn eine unkontrollierbare KI die Kontrolle übernimmt?
5 Antworten
Wie zur Hölle soll das funktionieren?? Diese Teile bestehen aus Lithium, 0 und 1 und kann nur dämliche LLMs. Glaub mir, wir sind sehr weit entfernt von sowas.
Weil die breite Masse nur "ChatGPT" kennt.
Ändert aber nichts an der Aussage, Diffusion Models sind genauso wenig dazu in der Lage, das zu tun, wovor der Fragesteller Angst hat.
ok, mit chatGPT hast du recht. Allerdings wissen wir gar nicht wie es sich entwickeln wird bei der aktuellen Geschwindigkeit. Eine AGI wird kommen und die frage nach Bewusstsein ist nicht geklärt. Im Prinzip ist es nur eine art "neuro feedback schleife" welche genauso gut auch künstlich laufen kann. Wer sagt dass eine KI niemals ein Bewusstsein haben kann schätzt sich viel zu hoch selbst ein. Wir Menschen sind nichts besonderes und im prinzip auch nur ein (sehr sehr komplexer) Computer. Was wir Bewusstsein nennen ist im Prinzip nur ein Zusammenspiel von Neuronen, nerven und Botenstoffen in unserem Körper. Theoretisch spricht daher auch nicht gegen künstliches "Bewusstsein" und damit auch nichts gegen eine Übernahme einer KI. Praktisch darf man stark dran zweifeln, aber es geht ja um die Theorie.
Wer sagt dass eine KI niemals ein Bewusstsein haben kann schätzt sich viel zu hoch selbst ein.
Und ich denke, Du unterschätzt die Komplexität eines Bewustseins.
Im Grunde haben wir auch bei uns noch kein Stück begriffen, was ein Bewustsein überhaupt ist, aber ganz sicher ist es nicht nur eine Feedback-Schleife.
Auch unser Gehirn arbeitet nicht nur mit einer Feedback-Schleife, sondern ist eher ein Wust von sehr vielen in sich verwobenen kleinen und großen Feedback-Schleifen in Kombination mit sehr vielen "Massen-Inputs" (Hormone) und anderen "Signal-Arten" (Neurotransmitter) zwischen Neuronen - und dann verändert sich das alles auch noch laufend während der Benutzung. Und dann fehlt bei den heute gängigen LLMs (denen ja häufig ein Bewustsein nachgesagt wird) die Fähigkeit, selbständig eine Art Langzeitgedächtnis aufzubauen.
Was wir derzeit als "KI" kennen, ist im Grunde nur ein Input-Output-System, das Wahrscheinlichkeiten berechnet, links steckt man Daten rein und rechts kommen Daten raus. Das Gehirn hat aber keine klar definierten "Input- und Output-Parameter", stattdessen fließen Sinneseindrücke diffus in verschiedene Hirnareale, und einen Output gibt es nur in Form von Steuerung von Körperfunktionen. KI mag also vom Gehirn abgeschaut sein, aber man hat sich die Arbeitsweise von den Neuronen untereinander abgeschaut und in eine sehr stark vereinfachte Form gebracht, mit der Komplexität von einem Gehirn (muss ja kein menschliches Gehirn sein) hat das aber nichts zu tun.
Ich weiß auch nicht, was ein Bewustsein ist, aber ich denke, es ist eine komplexe Kombination aus der Fähigkeit, sich selber wahrzunehmen (z.B. kannst Du dich im Spiegel anschauen), Emotionen (als Folge von Hormonen), körperliche Reize und Instinkte (sonst würdest Du nur da stehen und nix tun), die Gesamtheit aller deiner Erfahrungen (das Ich-Bewustsein eines Säuglings entwickelt sich ja auch erst mit der Zeit) und bestimmt noch einiges mehr.
Die "KI", die wir derzeit kennen, ist dagegen tatsächlich nur eine Feedback-Schleife mit einem raffinierten, aber im Grunde ziemlich einfachen Algorithmus. Das, was die "KI" erst wirklich besonders macht, ist der Lern-Prozess und das kann die KI nicht alleine, zumindest nicht direkt während der "Denk-Prozesse".
Oder um einmal Claude zu Wort kommen zu lassen:
Alle aktuellen KI-Systeme, nicht nur LLMs, operieren ohne echte intrinsische Motivation oder echtes Verstehen. Was als "künstliche Intelligenz" bezeichnet wird, sind im Kern nur Mustererkenner und -optimierer, die durch statistische Prozesse funktionieren. Sie erzeugen eine Illusion von Verstehen, Absicht oder Intelligenz durch raffinierte Nachahmung, während ihnen die grundlegenden Eigenschaften fehlen, die menschliches Denken ausmachen: eigenständige Ziele, subjektives Erleben, echter Wissenstransfer zwischen Domänen oder ein Selbstmodell. Was wir als "Intelligenz" in diesen Systemen wahrnehmen, ist größtenteils eine Projektion unsererseits - eine Anthropomorphisierung von komplexen Berechnungen.
Die Angst, dass eine KI die Kontrolle über alles übernimmt und uns dann tötet, ist ebenso eine Anthropomorphisierung, weil wir Menschen das tun, aber KI ist nicht menschlich und auch nicht intelligent, es fühlt sich für uns nur so an, weil sie mit unseren selbst geschriebenen Daten aus dem Internet darauf trainiert wurde, möglichst realitätsnahe Antworten zu liefern.
PS:
Weil Du von "niemals" sprichst - ich behaupte nicht, dass KI "niemals ein Bewusstsein haben kann". Ich behaupte nur, dass wir noch sehr weit davon entfernt sind.
im prinzip ist ja reasoning schon einen Feedback schleife. Keiner weiß was eigentlich Bewustsein ist, aber rein wissenschaftlich gesehen ist es eben nicht mehr wie eine solche Feedbackschleife welche durch unzählige externe Sinne und auch im gehirn immer wieder neu getriggert werden... nur eben paralell. Künstliche Netzwerke sind da noch lange nicht, aber in letzter instanz macht es überhaupt keinen unterschied ob das netzwerk technisch oder biologisch ist, die prozesse sind die gleichen. Keinsttierchen haben auch ein neurales Netz, aber kein Bewusstsein. Ein Bewusstsein entsteht durch ein ausreichend komplexes system an neuralen Netzen und internen und externen inputs.
Hast Du meine Antwort überhaupt gelesen?
Ich hab recht ausführlich erklärt, warum es eben nicht "nur" eine Feedbackschleife ist, sondern eher eine Kombination von unzähligen Feedbackschleifen, die ineinander übergehen, ohne Anfang, Ende oder ein Ziel, mit vielen verschiedenen Signalarten, vielen verschiedenen übergreifenden "Signalen", permanent arbeitenden Lernprozessen (das Gedächtnis), etc.
Es gibt zwar eine Struktur im Gehirn, bzw. es gibt das, wie es die Neurowissenschaft einteilt, aber im Detail ist alles komplett "diffus" untereinander verknüpft und ständig im Wandel. Derzeitige KI-Modelle sind auch "diffus", allerdings im Wesentlichen wie eine Baumstruktur und sehr unidirektional aufgebaut. Das Gehirn ist dagegen eher ein gigantischer Haufen von Neuronen, deren Verbindungen nicht nur bidirektional, sondern auch ohne klare Richtung ablaufen und mehr mit einem gigantischen "Knäuel" vergleichbar wären.
Aber Du hast Recht, den Punkt mit der Parallelität habe ich außenvor gelassen, in einem Gehirn findet alles parallel statt. Unser aktives Denken funktioniert zwar nicht parallel, allerdings erfordert das auch sehr weitläufige Bereiche unseres Gehirns.
aber in letzter instanz macht es überhaupt keinen unterschied ob das netzwerk technisch oder biologisch ist, die prozesse sind die gleichen
Natürlich sind es im Grunde die gleichen, man muss "nur" die viel viel größere Komplexität in jeder Hinsicht sowie die vielen biologischen Prozesse, die in neuronalen Netzwerke noch gar kein Gegenstück haben (oder dir wir noch nicht Mal verstanden haben) simulieren.
Dann kommen wir vielleicht irgendwann in Sichtweite einer AGI.
Mit anderen Worten:
Wir sind noch sehr weit davon entfernt - aber das habe ich ja schon geschrieben.
Ach du scheiße schreibt ihr beiden viel, ich bleibe lieber im Schweiz Mode
Ich hab recht ausführlich erklärt, warum es eben nicht "nur" eine Feedbackschleife ist, sondern eher eine Kombination von unzähligen Feedbackschleifen, die ineinander übergehen, ohne Anfang, Ende oder ein Ziel, mit vielen verschiedenen Signalarten, vielen verschiedenen übergreifenden "Signalen", permanent arbeitenden Lernprozessen (das Gedächtnis), etc.
nichts anderes habe ich gesagt. Wir können das aber heute schon emulieren indem wir z.B. 2 KIs miteinander reden lassen und dabei die werte extern anpassen was denn der stimulation durch z.B. berührung, ohren oder Augen entsprechen könnte.
Wir sind eigentlich der gleichen Meinung ;-).
Mach die KI aus und sie ist aus, fertig.
Wenn wir natürlich so "kluk" sind und nur dieser einen KI vorher die volle Kontrolle über Infrastruktur und autonome Waffensysteme zu geben ... joa, dann haben wir's auch verdient.
Aber dass KI von irgendwas von sich aus die Kontrolle übernehmen würde, davon sind wir noch sehr weit entfernt. Da ist kein Bewustsein, das jetzt plötzlich entscheidet, die Menschen auszurotten.
Wenn irgendeine KI die volle Kontrolle über irgendetwas übernimmt und uns im Terminator-Style abschlachtet, dann weil irgendein idiotischer Mensch diese KI genau dafür entwickelt, ihr die nötigen Kontrollen übergeben und sie dazu aufgefordert hat, uns abzuschlachten.
Wenn ich Du wäre, würde ich weniger Hollywood-Filme gucken. Was da gezeigt wird, ist fast immer Quatsch, der einzig und allein dafür da ist, cool auszusehen, mit der Realität hat das nichts zu tun. Viel eher solltest Du Angst vor den Militärs dieser Welt haben, die wortwörtlich über Leichen gehen, um sich den Arsch sauber zu halten. Und nein, die findet man nicht nur bei den Russen oder anderen Feindbildern, die findet man überall.
dann haben wir probleme... aber weil sie unkontr9ollierbar ist, ist sie auch unvorhersehbar
Warum sollte die KI die Kontrolle übernehmen? Da müsste man schon vorher als Ziel einprogrammieren "Kontrolliere alles". Eine KI denkt nicht selbstständig, sondern arbeitet auf ein vorgegebenes Ziel hin. Bei ChatGPT und ähnlichen ist es zum Beispiel das Ziel, dem User möglichst gut zu assistieren.
Selbst wenn sie ein eigenes Bewusstsein hätte, gibt es keinen logischen Grund, die Menschheit auszurotten. Für Hass, Rache, Faschismus, Diskriminierung, Konkurrenzdenken und eingeredete Angst ("Er könnte mich ja in Zukunft angreifen") braucht man menschliche Gefühle. Außerdem bräuchte es wahrscheinlich nur einen globalen Stromausfall und wir würden uns selber auslöschen. Da müsste der Computer kaum etwas machen, sondern im Endeffekt nur warten.
Es ist wahrscheinlicher, dass ein Staat oder Hacker ein Programm schreibt, das global die Kontrolle übernimmt, um dann damit Firmen oder andere Staaten zu bedrohen und/oder zu erpressen.
Den Stecker ziehen und den Strom abstellen.
und Diffusion Modelle oder andere Ansätze? :). Warum nur LLMs? ;)