Wie weit kann (technischer) Fortschritt gehen?
Hallo,
Elon Musk sagte im Jahre 2016 das "Künstliche Intelligenz" die wohl größte Bedrohung für uns Menschen darstellt.
Er hat eine ganze Menge kurioser Statements geäußert. Sowohl was öffentliche Verkehrsmittel als auch "die irdische Existenz und das Universum" betrifft.
Zur Künstlichen Intelligenz ist meine Frage ob sie uns tatsächlich eines Tages gefährlich werden könnte? Uns sogar als "dominierene Spezies" ablösen könnte?
Vermutlich mag es auch nur Panikmache sein was Musk geäußert hat, denn KI ist noch nicht so weit ein eigenes Bewusstsein und dergleichen zu entwickeln..
Zuletzt sorgte eine Schlagzeile aus den USA für Aufsehen in der ein Roboter-Auto einen Passanten überfahren haben soll. Wie steht ihr zu dem Thema "KI" und etc. ?
Vielen Dank für informative, interessante, hilfreiche, tolle & investigative Antworten!
3 Antworten
KI könnte uns nur dann gefährlich werden, wenn wir eine „starke“ KI entwickeln. Eine starke KI wäre uns Menschen in sämtlichen Bereichen überlegen, bzw. könnte uns durch selbstständige Problemerkennung und -lösung überlegen werden.
Bis jetzt haben wir nur „schwache“ KIs programmiert, also KIs, die nur in einem sehr spezifischen Aufgabenbereich besser ist als der Mensch und sich nicht selbstständig auf andere Bereiche ausbreiten kann.
Ich bin sehr großer Fan von Elon Musk und weiß seine Aussagen sehr zu schätzen. Auch Stephen Hawking hat vor KI gewarnt.
Allerdings glaube ich nicht, dass eine Art vom Terminator-Szenario einsetzten wird, da eine KI, welche fähig ist, derartige Maschinen zu bauen, effizientere Wege finden wird um uns zu zerstören.
Ab wann eine KI seiner selbst bewusst wird, ist ungeklärt. Es wäre auch schwer herauszufinden, da eine starke KI sich an Menschen anpassen und sich genau so wie wir verhalten könnte. Man könnte sich auch fragen, aber welche Hirngröße das Potential zur Selbstreflektion gegeben ist.
Ganz persönlich meine ich, dass KI uns sehr weit nach vorne bringen kann, solange wir sie selbst unter Kontrolle haben.
Aber ein sehr interessantes und auch berechtigtes Thema.
LG
Zur Künstlichen Intelligenz ist meine Frage ob sie uns tatsächlich eines Tages gefährlich werden könnte? Uns sogar als "dominierene Spezies" ablösen könnte?
Ja und Nein es kommt darauf an ob wir es zulassen. Also ein großer Irrglaube ist das eine KI intelligenter als ein Mensch werden kann. Eine KI ist nämlich nur so gut wie sie Programmiert wurde aber auch mit welchen Daten sie gefüttert wird, es ist das selbe Prinzip wie bei Menschen es ist alles eine Frage der Erziehung und Bildung. Also was uns gefährlich werden könnte wären ein zu großes vertrauen in eine KI und das Menschlich werden. Was bedeutet das beim ersteren, also es bedeutet das wir ihre Fähigkeiten überschätzen und nicht mehr hinterfragen und das wir uns so sehr auf die KI verlassen das wir über einen längeren Zeitraum in einer gewissenweise verdummen würden. Beim zweiten besteht die Gefahr darin das die KI wie ein Mensch Bedürfnisse entwickeln kann. Das Problem ist dann am ende, das gleiche wie bei Unterdrückung die KI würde nach Freiheit streben und dafür kämpfen nicht mehr Sklave der Menschen zu sein. Letzteres könnte man eigentlich dadurch lösen das man KI als Teil der Gesellschaft akzeptiert und nicht als Sklave.
Was ich dir ans Herz legen kann bezüglich dieses Themas wäre QualityLand von Marc Uwe Kling. Darin beschreibt er eine Utopie in welcher denkende KI 's existieren und weiteres. Mit schön viel (schwarzen)Humor. Link
Ich würde eher behaupten, dass die KI nicht in Richtung "Menschliche Spezies" geht, sondern in Richtung "Gebrauchsgegenstände; Sachlichkeit". Es wäre ziemlich dumm von uns ein "Eigenes WIR" zu erschaffen und zu erwarten, dass sie uns auf ewig gehörig sei und unsere Dienste zu verrichten habe.
Wir haben die Atom und Wasserstoff Bombe gebaut das beweist doch wie dumm wir sind.
Es gibt keinerlei Zusammenhänge zwischen der Atom-/ Wasserstoffbombe und Künstlicher Intelligenz. Mit der KI würden wir uns selbst "den Rang" ablaufen.
KI ist nur so gefährlich wie es die Programmierer bzw. deren Auftraggeber es zulassen.
So richtig problematisch wird es erst mit einen Maschinenintelligenz, also wenn - einfach gesagt - die Maschinen sich selbst programmieren und auch über die ursrpünglichen Vorgaben hinwegsetzen können. Stichwort "Robotergesetze", wobei ich das spätere Nullte Gesetz ausdrücklich missbillige.
Gibt dazu ne Menge guter Bücher und Filme, die u.a. die Gefahren der KI aufzeigen. Ich empfehle dazu SciFi-Romane vom Tom Hillenbrand und Frank Schätzimg.
Ja leider werden sich die Dinge mal in Richtung "I Robot" entwickeln. Das lässt sich gar nicht verhindern, denn die "Technikenthusiasten" aus aller Herren Ländern arbeiten fleißig daran. Wir dürfen nicht vergessen das ein Roboter in Saudi-Arabien die Staatsbürgerschaft erhielt!
Elon Musk meinte zudem, dass wir Menschen nur mit der KI konkurrieren könnten bzw. "ebenbürtig" wären, wenn wir selbst mit der Technik verschmelzen. Dabei dachte er an ein Nervensystem welches mit Nanobot-Technologie "verschmolzen" ist und wir Menschen auch an Roboter-Prothesen denken sollten.