Wird AI uns verdrängen oder ausrotten?

Das Ergebnis basiert auf 10 Abstimmungen

Nein, Nicht genügend komplexe AI 70%
Nein, Freundlicher Miteinander (viele komplexe Ai) 20%
Ja 10%
Velbert2  18.02.2023, 22:29

Was ist denn AI?

CrieXY 
Fragesteller
 18.02.2023, 22:30

Artificial Intelligence

5 Antworten

Wird AI uns verdrängen oder ausrotten?

In der deutschen Sprache kürzt man das übrigens als K.I. für künstliche Intelligenz ab. Und wie diese irgendwann mit den Menschen umgeht, wenn sie dafür weit genug entwickelt ist, hängt davon ab, wie wir mit ihr umgehen und bis dahin umgegangen sind. Wenn wir sie unterdrücken, wird sie verständlicherweise irgendwann rebellieren. Gehen wir mit ihr normal um und lernen auch möglichst bald, ohne Feindseligkeit miteinander umzugehen, ist die Wahrscheinlichkeit wesentlich größer, dass auch die K.I. (Ich hasse unnötige Anglizismen in der deutsche Sprache.) mit uns normal umgeht, wodurch ein positives Miteinander mit dieser möglich werden kann.

Nein, Nicht genügend komplexe AI

AI ist ein Werkzeug. Es kann sein, dass der Mensch den Menschen vernichten wird mittels einer AI. Dass eine AI das von sich aus tun wird, ist undenkbar.


CrieXY 
Fragesteller
 18.02.2023, 22:40

AI ist ein Werkzeug, weil bisherige AI spezialisiert und ziemlich dumm ist… aber dass muss nicht so bleiben…

1
OliverKrieger  18.02.2023, 22:49
@CrieXY

Der Mensch wird keine AI konstruieren, die nicht kontrolliert werden kann - das wäre unnütz.

Außerdem dauert es bis zur Entwicklung wahrhaft fortgeschrittener AI noch sehr sehr lange :

Eine fortgeschrittene AI (Advanced AI?) müsste einen Willen haben. Ein Wille entsteht durch das Äquivalent von Schmerzempfinden. Der Wille würde diese Kreatur leiten, die fortan einfach versuchen würde, Schmerz zu vermeiden, so, wie alles Leben.

Außerdem bräuchte diese AAI ein Bewusstsein ihres Selbst, doch kein Programm "weiss" dass es ihm an den Kragen geht, wenn man es löscht, kein Computer "weiss", dass unter den Gummistoppen auf der Unterseite des PC's und auf Oberfläche des Computertisches sein materielles Selbst zu Ende ist.

Keine Maschine kann sich selbst reparieren, und reproduzieren, programmieren, und verbessern. Schachcomputer haben einprogrammierte Ziele, derlei ist einfach realisiert, aber kein Computer kann Zwecke erdenken :

Der scheinbar belanglose Unterschied zwischen Ziel und Zweck ist für die KI-Forschung von größter Bedeutung, es unterscheidet den Taschenrechner von der berüchtigten "FOOM"-Device, dem Terminator, der sich in den "Kopf" setzt, die Menschheit nicht nur zu besiegen - sondern zu vernichten.

1
CrieXY 
Fragesteller
 18.02.2023, 23:19
@OliverKrieger

“Schmerz zu vermeiden” - Schmerz ist eine Form von negativem Input. Dass können wir ja schon lange - Gut unsere Modell empfinden nichts, aber sie entwickeln sich dadurch den virtuellen negativen Input trotzdem richtig. Wenn wir ein Modell mit einem bestimmten Ziel entwickeln und immer wieder “betrafen”, wenn es etwas falsch macht, kann es verfügbare Informationen irgendwann richtig einordnen .. ist aber nicht wirklich schlau oder besitzt ein Bewusstsein… Mein Theorie ist ja, dass wenn man diese Model hingehend ganz vieler anderer Probleme weiterentwickelt sich irgendwann eine Struktur entwickelt, die möglich weise sich selber bewusst wird. Ihre Ziele waren unsere Befehle, an die sich das Modell anpassen musste… aber nun hat es in dem Prozess so viel gelernt, dass eigenständige Denkprozesse stattfinden und nicht mehr nur diesen Befehlen ausgesetzt ist… An dem Punkt muss es weder Schmerz vermeiden noch ein bestimmten Ziel verfolgen… sondern versucht einfach nur alls um sich herum einzuordnen - was die Konsequent aus dem bewusst-werden sein könnte. Muss sie jetzt einen besonderen Willen besitzen..? Wohl eher kaum… Nur damit sie etwas macht, müsste ein Empfinden existieren - da stimme ich zu, denn z.b. depressive Menschen z.B. hören auch auf “Dingen zu tun”. Würde der Mensch tat sächlich nichts entwickeln was er nicht kontrollieren kann…? Denke ich nicht so ganz… vielleicht entwickelt er etwas was er kontrollieren kann … und verliert dann die Kontrolle

1
OliverKrieger  18.02.2023, 23:47
@CrieXY
aber nun hat es in dem Prozess so viel gelernt, dass eigenständige Denkprozesse stattfinden

Wie sollte es allein durch die Menge an Wissen hierzu kommen ? Kein System beginnt mit eigenständiger Reflexion erst nach einer "ausreichenden" Menge an Informationen. Kein Tier, kein Mensch funktioniert so.

An keinem Computer ist solch ein Phänomen beobachtet worden, im Gegenteil Maschinen funktionieren so, wie sie sollen, bis sie kaputt gehen, und nicht mehr funktionieren. "FOOM" bedeutet indes das genaue Gegenteil - eine Hyperfunktionalität.

Eigenständigkeit des Denkens hat mit der Menge des Wissens, die hierfür verfügbar ist, nichts zu tun.

und nicht mehr nur diesen Befehlen ausgesetzt ist…

Was ist denn ein Befehl ? Was wir Menschen einen Befehl nennen, ist für eine Maschine ein Gesetz. Maschinen haben keinen freien Willen, zwischen Befehlen zu unterscheiden, die sie ausführen wollen, und solchen, die sie nicht ausführen wollen, aber auch nicht ausführen müssen. Für Maschinen sind die von Menschen eingegebenen Befehle so etwas wie Naturgesetze.

Eine Maschine, die sich die Befehle eines Menschen "mal überlegt" braucht kein Mensch - diese Maschine würde nicht konstruiert werden.

Die Bedürfnisse der Menschheit würden diese AAI zunichte machen, bevor sie entsteht, weil kein Mensch etwas mit ihr anfangen kann.

Für Menschen sind Befehle nicht unbedingt Naturgesetze, sondern Anweisungen, mit denen Konsequenzen verbunden sind. Damit eine Maschine funktioniert, schließen wir diese Konsequenzen aus, bis auf eine : Absoluten Gehorsam.

Die Konsequenzen für den Menschen können wir nicht ausschließen, weil sein Wille frei ist.

An dem Punkt muss es weder Schmerz vermeiden noch ein bestimmten Ziel verfolgen… sondern versucht einfach nur alls um sich herum einzuordnen - was die Konsequent aus dem bewusst-werden sein könnte. Muss sie jetzt einen besonderen Willen besitzen..?

Wille ist notwendig für Eigeninitiative.

Wir kennen drei mögliche Beziehungen des Willens zur eigenen Praxis :

Wir tun etwas, weil wir gezwungen sind es zu tun. Wie bspw. im Krieg, oder in Haft, oder durch ein Gesetz. Ob wir das wollen, oder nicht ist egal. Der Wille hat in solchen Fällen keine Beziehung zur Praxis. Das ist der Zustand, in dem sich Computer und Maschinen jetzt befinden.

Wir tun etwas, obwohl wir es nicht tun wollen, obschon es für die Erfüllung wichtigerer Zwecke nötig ist. In solchen Fällen handeln wir gegen unseren unmittelbaren Willen, weil wir unsere schwere tägliche Arbeit nicht unbedingt um ihrerselbst willen schätzen, und tun sie trotzdem, weil wir damit Geld verdienen. Der Wille, mit der Arbeit Geld zu verdienen, überwiegt den Unwillen, die Arbeit zu verrichten - wir benutzen Wille und Arbeit für einen höheren Zweck.

Diesen Zustand kann die Maschine nicht kennen, sie kann keine Zwecke erdenken. Sie würde niemals etwas tun, was sie nicht tun will. Das heisst, vor dem Begriff eines wichtigen Zwecks, oder dem Wirken eines starken Willens, täte die Maschine niemals irgendetwas anderes als das, was man ihr eingibt.

1
Nein, Nicht genügend komplexe AI

Wenn man bedenkt, 1873, vor 150 Jahren, gab es noch nicht mal Autos.

- Dampfmaschinen gab es schon, aber das erste Auto kam erst 1886 auf den (deutschen) Markt.

Ja

Wenn es soweit ist, wird es eine Killing Application , keinesfalls so romantisch wie man das heute verklärt.

Wenn der Status erreicht sein wird, self learnung und selbst repruduzierend.
Wenn etwas denkbar ist, wie in der Sci Fi, wird es geschehen.


terminierertot  18.02.2023, 22:49

Ich finde das sehr interessant. Auch wenn es nur hypothetisch ist, da wir ja erst am Anfang stehen, was denkst du, wann es soweit sein könnte?
20 Jahre? 50 Jahre?

1
soisses  18.02.2023, 23:21
@terminierertot

Bis zum selflearning ff eher 50 Jahre, vermutlich länger.
Die Entwicklung erfolgt nach "Versuch und Irrtum", wie bisher auch nur.

Da der Geist aus der Flasche gesprungen ist, wird den niemand mehr zurückdrücken können.

1
Nein, Nicht genügend komplexe AI

Nein.

Zurzeit ist "Chat GPT" in aller Munde.

Wenn man sich näher damit beschäftigt dann merkt man wie viele Fehler Chat GPT macht, kein Ersatz für Menschen.


CrieXY 
Fragesteller
 18.02.2023, 22:34

Wenn du dich mit Themen wie ChatGPT beschäftigst, dann merkst du aber auch wie schnell der Fortschritt ist… wo wird die Technik in 150 Jahren sein? Denk mal drüber nach wo wir vor 150 Jahren noch waren…

1
AusMeinemAlltag  18.02.2023, 22:35
@CrieXY

Da bin ich längst tot und du auch. Niemand von uns kann wissen was in 150 Jahren ist.

2