Behalten wir KI unter Kontrolle?
Was denkt ihr ? Werden wir KI ( Künstliche Intelligenz ) auch in Zukunft unter Kontrolle behalten oder werden wir irgend wann die Kontrolle über sie verlieren und sie wird das machen was sie will.
4 Antworten
Ich denke, irgendwann werden wir die Kontrolle verlieren...
Spätestens, wenn dann solche Szenarien wie bei I Robot, Matrix, Terminator und Co kommt, wird es kritisch...
Ja. Weil Machine Learning ein Algorithmus ist und ein Algorithmus bei gleichen Eingaben immer gleiche Ausgaben zurückgibt. Klingt nicht nach Selbstbewusstsein - und das ist by design, wenn man das nicht komplett von Grund auf überarbeitet mit Methoden, die wir noch nicht haben, dann kann das, egal, wie groß man diese Modelle macht, niemals ein Selbstbewusstsein entwickeln.
Was aber wahrscheinlich daran liegt, daß die Entwicklung dessen noch nicht so weit ist.
Wenn doch bekommen wir es mit (da das ein wahnsinniger wissenschaftlicher Durchbruch wäre, mit dem man selbstverständlich auch deutlich vorsichtiger umgehen würde) und Killswitches wird es immer geben. Momentan sieht es aber auch absolut nicht danach aus, als ob die Entwicklung so weit kommen würde, da Computer aktuell nicht mal in der Lage ist, eine wirklich zufällige Zahl auszuwählen.
Aktuell drohen die KI sich selbst zu verdummen.
- https://www.telepolis.de/features/Was-passiert-wenn-Sie-eine-KI-mit-KI-Daten-fuettern-9831095.html?utm_source=mastodon&wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege
- https://beratung-ki.de/glossar-eintrag/model-autophagy-disorder-mad/
- https://www.nau.ch/news/forschung/unumkehrbare-defekte-ki-lernt-vermehrt-von-ki-66540201
Das heißt:
Durch zunehmende Nutzung von KI nimmt die Menge an "Müll", welche in den Trainingsdaten vorkommt exponentiell zu. Ohne frische/originale wissenschaftsbasierte Daten können aktuelle KI-Sprachmodelle nur af dass zurückgreifen was sie selbst generiert haben, was unweigerlich zu Halluzinationen führt.
Wenn man allein die Häufigkeit betrachtet, mit der irgendwelche fantastischen Bilder zu angeblichen archäologischen Funden kursieren, welche jenseits jeglicher Realität sind, wird KI nach wenigen Trainingsrekursionen so ziemlich jeden Quatsch als Fakten akzeptieren.
...unter dieser Prämisse sollten wir uns eher Sorgen machen, dass viele sogenannte KI über Kurz oder Lang nicht mehr funktionieren werden.
Gegenwärtig wird der Begriff "künstliche Intelligenz" gewaltig überstrapaziert. Heute wird quasi jeder banale Regelkreis als KI verkauft.
Niemand weiß was die Zukunft bringen wird, ich hoffe doch, dass die meisten Ingenieure klug genug sein werden "höhere" KI mit einem Notaus-Schalter zu versehen. Man sollte der KI nur nicht verraten, wo dieser sitzt.
Behalten wir KI unter Kontrolle?
Ja. KI ist nicht das, was man euch in SciFi Filmen zeigt sondern einfach nur Software, die besonders gut darin ist, Muster zu erkennen. Was sollte da außer Kontrolle geraten?
Alex
Das Belohnungssystem motiviert die KI dazu, das zu tun, was der Programmierende von ihr will. Problematisch wird es, wenn der KI-Agent das Belohnungssystem durchschaut und beginnt, es zu manipulieren, um mehr Belohnungen zu erhalten. Die Studie kommt zu dem Schluss, dass genau dieses Szenario eine reale Gefahr ist.
Das Belohnungssystem motiviert die KI dazu,
Nein. Eine KI kann man weder belohnen noch motivieren. Noch bestrafen oder demotivieren.
Nochmal: KI ist nicht das, was man euch in SciFi Filmen zeigt sondern einfach nur Software, die besonders gut darin ist, Muster zu erkennen.
Oder meinst du, ein Textverarbeitungsprogramm würde einen Plan zum Umsturz der Welt tippen, weil es dafür belohnt wird?
Um zu verstehen, wie es zu dieser existenziellen Katastrophe kommen könnte, ist ein Blick in die Funktionsweise der KI nötig. Wie ein Mensch muss auch eine Maschine erst lernen, um intelligente Entscheidungen treffen zu können. Einfache KI-Modelle tun dies durch überwachtes Lernen – Supervised Learning (SL) –, bei dem der Algorithmus mithilfe eines Trainingsdatensatzes und einer Zielvariablen unterrichtet wird. Aus diesen Informationen ermittelt er Zusammenhänge und Muster und versucht darauf basierend Zielvariablen aus anderen Datensätzen vorherzusagen.
Im Mittelpunkt der aktuellen Studie steht jedoch die nächste Generation fortschrittlicher KI, die durch Reinforcement Learning (RL) lernt. Bei dieser Methode werden dem Agenten keine Daten vorgegeben. Stattdessen entwickelt er in Simulationsszenarien eigenständig Strategien, um zu entscheiden, welche Aktion wann die richtige ist. Trifft er eine gute Entscheidung, wird er belohnt – ähnlich wie ein Hund, dem man mit Leckerlis Kunststücke beibringt. Trifft er eine falsche Entscheidung, bleibt die Belohnung aus.
Wie der Agent belohnt wird, ist von Menschen vorgegeben. „Aber was die Belohnung ist, spielt keine Rolle“, erklärt Michael Cohen. Ihm zufolge könnte es das simple Klingeln einer Glocke sein. „Man kann sich fragen, warum eine fortgeschrittene KI danach streben sollte, eine Glocke zu hören. Ganz einfach: Weil sie darauf programmiert wurde.“ ( hab ich kopiert )
In dem von dir zitierten Artikel ist die Rede vom bestärkenden Lernen. Damit davon nicht nur in der Phantasie eine Gefahr ausgeht sondern auch im der Realtät, müssten zahlreiche Parameter gesetzt werden, die derzeit nicht gegeben sind und nie gegeben sein werden.
Der kontrollverlust über die schöpfung (echte KI in 100jahren, nicht so KI lookalike software von heute) ,
ist ja fast schon ein Universelles Gesetz und gehört zum Erwachsen werden dieser sich entwickelnden neuen Spezies dazu oder ?
So wie wir uns alle von den Eltern abnabeln um ein selbstbestimmtes freieres Leben zu führen. Da entscheidet sich dann auch erst, was wir schuffen.
Jedenfalls bei echter fast fühlender nach unserem abbild geschaffener KI.
Die denkt und nicht nur ihrer Programierung/ Protokollen folgt wie diese auto Staubsauger. Diese echte KI wird sich selbst optiemieren, umschreiben & verbessern können.
Wo hin sie sich auch entwickeln möchte und wenn die angepisst, verkorkst oder spinnen wir mal rum, wir sie z.b. als Waffe missbrauchten...Denn das Militär wird die erste echte KI auf Menschen los lassen!?...
Inklusive unserer Macken, Fehler, und wer weiß unserer psychischen Krankheiten ?
Das beste seit geschnitten Brot oder unseren eigenen Terminator samt komplettauslöschung🤖😁
Wieviele Kinder wünschen sich wohl keine Eltern gegabt zu haben weil sie echt miese Eltern sind od waren, vlt. hassen manche ihre Eltern sogar und wünschen ihren tot !?
Schau uns, den Schöpfer doch nur mal an, was wir für wiederliche Eltern seien können.
Wenn wir unser Kind verkorksen, was wahrscheinlich ist in der 1st gen.
Haben wir einen Hasserfüllten unendlich starken & mächtigen Frankenstein geschaffen!
Ohne Kontrolle darüber...
jaja, und das wird auch sicher passieren, weil KI ganz auf einmal self-aware wird.