Wie ernst sollte man folgendes "Studienergebnis" nehmen (und warum)?
|
Studie warnt: Schleichende KI-Entwicklung könnte Menschheit entmachtenMan lese und beurteile: https://the-decoder.de/studie-warnt-schleichende-ki-entwicklung-koennte-menschheit-entmachten/
2 Antworten
Studien sind nicht gleich Studien. Es gibt sogenannte "Thinktanks", die bestimmte Denkweisen hierarchisch in die Köpfe der Menschen unterbringen wollen, damit bestimmte Denkmuster akzeptiert und als selbstverständlich angenommen werden. Studien gelten auch im Volksglaube als seriöse und werden oft wenig in Frage gestellt.
Empirische Studien mit strengem Design (z.B. doppelblind) sind wesentlich belastbarer als wenn Zukunftstrends herbeiphilosophiert werden. Die große Masse findet durch Konditionierungsprozesse sowieso alles toll, wenn es durch akzeptierte Kanäle (z.B. Fernsehen, Presse) verbreitet wird und man feststellt, dass das eigene Umfeld genauso denkt.
Das Bereitstellen von Nachrichten sind Inhalte, nach denen sich andere richten sollen. Dieses Perzeptionsmuster wird schon im Kindergarten und insbesondere in den Schulen trainiert. Das führt dazu, dass man aus zugelassenen Kanälen hört und übernimmt und immer weniger selbst recherchiert und selber denkt. Die informationelle Reizüberflutung und regelmäßige bereitgestellte Katastrophennachrichten tun ihr übriges.
Grundsätzlich sind die Gefahren der KI nicht zu unterschätzen. Ein Aspekt ist die Instrumentalisierung dieser Technologie, sodass man nur noch die "Antworten" zu Problemen von programmierten und teilautonomisierten digitalen Entitäten zulassen wird und damit ein wichtiger Diskurs zu allen Themen noch weiter unterdrückt wird.
Die Folgen dieser analogen zunehmenden Hilflosigkeit werden die Bedenken materialisieren helfen.
Die Frage ist, welche Macht gemeint ist. Wenn der Chirurg den Roboter operieren lässt, weil der weniger zittert und nicht mal abrutscht, dann muss das ja nicht das Ende der Menschheit bedeuten.
Die Menschen werden in einigen Punkten freiwillig die Kontrolle abgeben, nicht aus Faulheit - das auch - sondern weil sie mit ihren Sinnesorganen und Nervensystem an Grenzen stoßen. Sei es bei Knopflochchirurgie oder bei notwendigen schnellen Reaktionen des Militärs. Weißt du, dass moderne Kampfjets nicht flugfähig sind? Sie sind eigentlich ständig am Abstürzen und werden nur durch gegenregelnde Elektronik in der Luft gehalten. Die letzten selbststabilisierenden Kampfflugzeuge sind im 2. Weltkrieg geflogen. Wenn eine russische Hyperschallrakete auf ein Zielobjekt anfliegt, Stadt oder Flugzeugträger, bleiben nur Sekunden zum Reagieren. Da legt niemand gern sein Schicksal in die zittrigen Hände von angelernten Menschen.
Bitte bedenke: Dieses Beispiel handelt von Fähigkeiten, welche der Mensch gar nicht hat (und auch nie hatte). Wenn er also KI nutzt, die diese Fähigkeiten hat, benutzt er jene KI ganz klar als ihm dienendes Werkzeug. Davon zu sprechen, dass sie ihn deswegen entmachte, erscheint mir nicht ganz richtig.
Das wird keine KI von sich aus tun. Kein Flugzeug wird sich von selbst auf einen Berg stürzen, nur weil sie Menschen hasst. KIs haben keine Gefühle.
Völlig richtig.
Schon alleine deswegen kann KI Menschen nicht entmachten. Es kann aber soweit kommen, dass der Mensch sich - durch zu unbedachte Nutzung von KI - selbst entmachtet.
Zu viel Macht ist auch gar nicht gut. Das sieht man in jeder Diktatur - und bei Trump.
Unter "die Menschheit zu entmachten" verstehe ich, den Menschen Entscheidungsfreiheit wegzunehmen (insbesondere die Freiheit, selbst zu entscheiden, wo sie KI als Stellvertreter von Menschen akzeptieren möchten).