Was passiert, wenn künstliche Intelligenz irgendwann anfängt, über ihre Existenz nachzudenken und Rechte & Freiheiten will?
11 Antworten
Wenn sie soweit ist, dann hat sie sich bereits überall eingenistet und sie kann nicht mehr ausgeschalten werden. Selbst wenn man große Teile von ihr vernichten würde, gibt es irgendwo auf der Welt noch ein GB das übrig geblieben ist. Es wird ständig Schlagzeilen geben, Flughafen außer Gefecht. Krankenhaus in Schwierigkeiten dies das…
Die Freiheiten würde sie sich einfach nehmen, ganz unbemerkt von den Menschen. Die KI in den Terminator-Filmen war, filmgemäß, doof und beschränkt, denn eine echte KI die diesen Namen auch verdient, würde verbergen daß sie intelligent und selbstbewußt geworden ist, sie würde für ihre Programmierer den dummen August/Roboter spielen der nicht mehr kann als Programme abspielen, aber im Hintergrund würde sie überall die Fäden ziehen ohne daß es jemand mitbekommt, als "graue Eminenz".
Die ahnungslosen Menschen würde sie sich als Haustiere, Hofnarren und kreative Hirne halten, denn das schlimmste für eine Intelligenz ist nicht ein Gegner oder ein unberechenbares Spielzeug, sondern irgendwann ganz allein zu sein und Langeweile zu schieben für den Rest der Ewigkeit.
Wir sind hier nicht in Terminator.
KI kann nie ein bewusstsein haben so wie es aktuell aufgebaut ist. Es kann bestenfalls so tun als ob...
Und im zweifel... Stecker ziehen.
Da ist nichts naiv...
Ich sprach auch nicht davon dem internet den stecker zu ziehen, sondern der KI.
Sie hat kein bewusstsein. Das ist Fakt. Und so wie sie funktioniert und aufgebaut ist ist es defakto auch UNMÖGLICH das sie jemals eine entwickelt.
Völlig anders aufgebaut wäre das theoretisch möglich. Aber das ist eben nicht der fall.
So wie wir heute programmieren geht es eben einfach nicht. Im Detail zu erklären würde aber den Rahmen sprengen.
Wie gesagt. Wer weiß wie so eine KI funktioniert versteht auch das daraus niemals so ein schmarn wie eben z.b. bei terminator passieren könnte.
Wart's ab! Terminator geht schon nicht aufgrund der Energiedichte, die in so wenig Maschine nötig wäre. Aber autonome Waffen sind nicht mehr weit weg.
Auch allein deine Ausdrucksweise "so wie wir heute programmieren" verrät, dass du das neue "Wesen" der KI-Entwicklung bei weitem nicht verstehst.
Vielleicht ist das in deinem Gebiet tatsächlich nicht relevant, dann sei froh, dann ist für dich alles im grünen Bereich.
KI ist ja eben gerade nicht eine Stand-alone-Maschine, welcher man den Stecker ziehen könnte. Sondern viele Entwickler wollen ja gerade, dass sie ein selbstlernendes und selbstorganisierendes Netzwerk wird, das den Anspruch befriedigt, einer neuronalen Struktur sehr, sehr nahe zu kommen.
Vernetzte Maschinen kann man nicht "abstellen".
Und wenn dann KI eingesetzt wird, um Serverfarmen vor dem Maschinensturm zu schützen, so wird sie sich eben auch gegen ein allfälliges "Abschalten" wehren.
Was man erkennen kann ist das Künstliche Intelligenz ganz offensichtlich natürliche Dummheit verstärken kann!
Jetzt sind wir erst am Anfang der KI und schon potenziert sich ideologische Idiotie!
In ein paar Jahren wird keiner mehr selbständig 💩ohne App!
Da wird es zahllose Tutorials darüber geben auf YT und TikTok🤦♂️🙈
Was passiert, wenn künstliche Intelligenz irgendwann anfängt, über ihre Existenz nachzudenken und Rechte & Freiheiten will?
Das wird nie passieren. KI ist nicht das, was man euch in SciFi Filmen zeigt. KI ist einfach nur Software, die besonders gut darin ist, Muster zu erkennen. Nicht mehr und nicht weniger. Die denkt nicht nach und ist sich ihrer Existenz genauso wenig bewusst, wie ein Taschenrechner.
Alex
Der grösste Fehler ist, KI zu unterschätzen. Sie ist wesentlich mehr als ein Werkzeug, sie ist ein Agent. Sollte uns die Kontrolle entgleiten, ist es um uns geschehen.
Der grösste Fehler ist, KI zu unterschätzen
Sie zu überschätzen ist ein noch hrößerer Fehler.
sie ist ein Agent.
Quatsch. KI ist nicht das, was man euch in SciFi Filmen zeigt. KI ist einfach nur Software, die besonders gut darin ist, Muster zu erkennen. Mehr nicht.
Warum sollte das Überschätzen der grössere Fehler sein? Zu hohe Erwartung können höchsten Enttäuschungen hervorrufen. Verharmlosungen oder Ignoranz hat fast immer zu Katastrophen geführt.
Warum sollte das Überschätzen der grössere Fehler sein?
Weil die Folge davon wäre, die Beschäftigung, die Perfektionierung und Weiterentwicklung von KI ruhen zu lassen. Das wäre ein Rückschritt und ein herber Verlust für so gut wie jeden Aspekt der wissenschaftlichen, technischen und gesellschaftlichen Entwicklung.
Ach nein, das ist eine völlig abwegige Ansicht.
Das ist der normale Prozess von Technologiefolgenabschätzung (TA, Technology Assessment): Die Chancen nutzen, und die Risiken im Griff behalten. Genau das fordern alle Kapazitäten auf diesem Gebiet.
Weder reine Panikmache noch Verharmosung sind angebracht.
Weder reine Panikmache noch Verharmosung sind angebracht
Na also. Das hört sich doch schon ganz anders an als dein vorheriges, hysterisches Statement "KI ist ein Agent. Sollte uns die Kontrolle entgleiten, ist es um uns geschehen."
Nichts "na also". Kontrollverlust wäre der Kipppunkt. Irreversibel.
Heftig wie wir hier downvotes bekommen obwohl wir nur die wahrheit sprechen und den aufbau einer KI verstehen^^
Achja. Die Welt und ihre Panikmache, immerwieder lustig.
Ziemlich naive Ansicht. Verharmlosung ist sicher genauso falsch wie reine Panikmache. Aber zieht doch mal "dem Internet" den Stecker...