Künstliche Intelligenz Roboter tötet in Südkorea bereits Menschen, können wir den Krieg noch aufhalten bevor es zu spät ist?
16 Stimmen
11 Antworten
Es war keine künstliche Intelligenz sondern ein fest programmierter Industrie-Roboter. Im Artikel wurde das Thema "KI" mit keinem einzigem Wort erwähnt. Und wer schon einmal in einer automatisierten Produktion gewesen ist, weiss, dass solche Industrieroboter weit weit entfernt sind von jeglicher "Intelligenz". Sie besitzen Sensoren und können auf deren Input hin reagieren. DAS WAR'S!
Ich bitte Dich, wenn Du shcon Artikel zitierst oder darauf hin fragst, dass Du bitte den Artikel erst einmal richtig liest und Dir diesen vielleicht erst einmal übersetzen lässt.
Und NOCH können wir die Entwicklung zu einer vernetzten Super-intelligenz aufhalten - zumindest, soweit wird das offiziell wissen. Denn niemand wird uns sagen, ob solche nicht schon lange im Hintergrund agiert.
Aber ganz klar ist: Wir können JETZT die Entwicklung künstlicher Intelligenz stoppen, einfrieren und mit einem Moratorium belegen. Wir können jetzt noch die Wissenschaft zu einem freiwilligen Verzicht auf entsprechende Forschung und Entwicklung bringen.
Naja, das war ein Unfall, es war ja gerade NICHT so, dass diese Maschine besonders intelligent war und die Absicht hatte, ihn zu töten. Im Prinzip war dies nichts anderes als ein tragischer Unfall mit einer völlig "dummen" herkömmlichen Maschine.
Das fiktive KI-Szenario ist ja so: die Maschine ist so intelligent, dass sie einen Menschen mit Absicht tötet (also selber auf diesen Plan gekommen ist). In diesem Falle war das aber nicht so. Im Grunde hatte der Unfall gar nichts mit KI zu tun.
Wenn ein Mensch einen anderen Menschen aus dem Weg räumen will, dann ist es am geschicktesten den Tod als "Unfall" darzustellen, um selbst keinen Ärger zu bekommen. Warum sollte eine KI sich selbst in Gefahr bringen indem sie offen zugibt den Menschen absichtlich getötet zu haben?
Die Maschine hat nicht geplant, ihn zu töten. Die macht halt immer dasselbe mit den Objekten, die unter sie kommen, und ob da nun eine Box oder ein Mensch liegt, konnte sie nicht mal unterscheiden.
Das ist weder geplant noch intelligent.
Sie wurde darauf trainiert Boxen zu erkennen... Ein Mensch ähnelt nicht einer Box.... daher kann es kein Unfall sein
Und da hat der Programmierer dem Roboter explizit den Unterschied zwischen Box und Mensch erklärt?
Durch Industrieroboter sind schon Menschen gestorben zu einem Zeitpunkt, da war der Begriff KI ein Science-Fiction Konstrukt aus Star Trek und Anderem. Nicht umsonst schreibt der Arbeitsschutz hierzulande eine sehr strikte Trennung solcher Industrieroboter von menschlichen Arbeitsplätzen vor. Die Maschine unterscheidet nicht, sie macht einfach, was ihr gesagt wurde.
"Hier greifen, dahin bewegen, dort loslassen"
Da wird auch keine Box mehr erkannt. Einfach greifen und bewegen. Starr einprogrammiert in ein paar Codezeilen.
Du machst den Fehler, davon auszugehen, dass die KI von selbst weiter denkt. Wenn man ein neuronales Netzwerk darauf trainiert, Boxen zu erkennen, dann erkennt es Boxen. Und das wars. Mehr passiert da nicht. Die Maschine kann also letztendlich nur erkennen, dass es entweder eine Box ist oder nicht. Wenn dabei ein Fehler passiert, dann kann das nur mutwillig geschehen, indem irgendwer die Maschine darauf trainiert hat, bestimmte Menschen auch als Boxen zu erkennen.
Und das klingt mir dann nicht nach einem Problem mit KI im allgemeinen. Das ist ungefähr so, als würdest du einen Hammer durch die Scheibe deines Nachbarn sagen und dann behaupten, dass der Hammer ihn wohl nicht mögen würde. Ein Hammer kann Leute aber nicht nicht mögen.
Hier in dem Falle ist es so, als hättest du den Hammer versehentlich irgendwo drauf fallen lassen. Du hast nicht geplant etwas kaputt zu machen, aber es ist kaputt und der Hammer hatte auch da nicht wirklich einen Einfluss drauf. Der Hammer hat nur entsprechend seinen äußeren Einflüssen "gehandelt" - er ist also gefallen.
Es gibt keinen Grund, weshalb die Argumentation, dass KI sich an der Menschheit rächt, basierend auf diesem Bericht, irgendeinen Sinn ergibt. Die KI versucht einfach nur, zu erraten, was die Trainingsdaten in ihren Umständen getan hätten - und wenn die Trainingsraten nicht ausreichend sind, dann passiert eben das.
Nö, ein Neuronales Netz funktioniert ja genau so, dass man nichts erklären muss. Die KI weiß von selbst was wichtig ist umzu erkennen ob da eine Box ist oder nicht.
Nochmal: Für ein stumpfes Bewegungsmuster braucht es keine KI, das ist Verschwendung von Ressourcen und übersteigt die Fähigkeiten des durchschnittlichen Automatisierungstechnikers, der den Roboter einrichtet, bei Weitem.
Wer 1976 in Zwickau in die Trabantwerke geblickt hat, wird auch dort schon Schweißroboter in der Montage gesehen haben, und wer dort nicht aufgepasst hat, ist auch damals schon von einem solchen getötet worden. Meinst du, die haben das damals auch schon bewusst gemacht? Mit einer in Lochkarten und Magnetbändern verewigten, hochkomplexen KI?
Ich hatte vor Jahren ein Lego Mindstorms-Set. Und als der daraus gebaute Roboter gemäß seiner Programmierung einer schwarzen Linie folgen sollte, ist er mir auch über die Hand gefahren, wenn ich sie ihm vor die Räder gehalten habe. War mein Lego-Roboter da auch darauf aus, mir die Hand zu zerquetschen und konnte es nur nicht?
Lerne bitte die Grundsätze des logischen und rationalen Denkens und mische nicht irgendwelches Stammtischgerede mit Skynet-Geschichten.
das ist kein stumpfes bewegungsmuster... Die Boxen haben unterschiedliche größe mit unterschiedlichen gewichten, da braucht es eine KI um das zu erkennen....
Hat meine 30 Jahre alte mechanische Waage etwa auch eine KI?
nein, sie ist ja mechanisch... du solltest mal einen Informatik Anfänger kurs besuchen....
Miene elektronische Küchenwaage meinetwegen? Hat die eine KI? Wie siehts mit dem digitalen Messschieber aus? Sagt dir das Wort "Sensor" etwas?
nein hat alles keine KI, wie gesagt, ein Informatikkurs täte dir nicht schlecht...
Den habe ich bei meinem Studium uA. belegt. Aber du kommst der Sache ja schon näher, Sensoren brauchen keine KI, sie messen eine Größe und geben diese als elektrisches Signal aus. Was man analog oder digital auswerten kann und davon abhängig ein Programm steuern kann.
Das alles ist auch keine KI.
habe ich das behauptet? Mittels Kamera eine Box zu erkennen benötigt eine KI!
ja, ist echt erbärmlich, wenn sich Leute mit KI nicht auskennen...
ja, ist echt erbärmlich, wenn sich Leute mit KI nicht auskennen...
Nach dem, was ich hier an Antworten von Dir lese, muss ich zustimmen. Denn DU erkennst den Unterschied zwischen KI und fest programmierter Maschinenlinie nicht. Und deine "Besessenheit" von tötenden Maschinen ist schon erschreckend. Schau weniger TV und geh mal zum Doc. Keine Technik ist perfekt. Sensoren versagen, Fehler im Computerprogramm sind menschlicher Natur... Einen Unfall zu einem "Mordattentat künstlicher Intelligenz" zu machen, ist schon echt armselig... Entweder willst Du nur provozieren und trollen, oder dein Verstand ist irgendwo auf der Strecke geblieben.. Sorry... Aber anders kann man deine Einstellung hier nicht sehen...
sorry bin Informatiker und erkenne dies sehr wohl, da ich ML Anwendungen auch entwickle....
Gerade dann solltest Du ja wissen, dass solche Sortieranlagen vorprogrammierten Mustern folgen und nicht selbstständig denken. Es werden Sensoren ausgewertet und entsprechend Bewegungsabläufe ausgeführt, die vorprogrammiert sind. Mehr nicht. Die denkt sich nicht einfach "das Gesicht passt mr nicht, den zieh ich aus dem Verkehr"... Was für eine gestörte Wahrnehmung hast Du eigentlich? Dann hat jeder Tesla, der autonom bei Probefahrten verunglückt ist und ggf todesfolgen mit sich brachte, diese auch absichtlich verursacht? Oh man.. Komm mal auf dein Leben klar...
Boxen stapeln ist nicht ein vorprogrammiertes Muster.... Was wenn die Boxen umfallen? Steht dann die ganze Produktion still, bis ein Mensch die aufräumt? Nein, die KI erkennt, dass die Boxen umgefallen sind und stapelt sie erneut wieder auf, was durch die Entropie natürlich nicht bereits vorprogrammiert sein kann, da die Boxen zufällig umfallen!!
Nein, die KI erkennt, dass die Boxen umgefallen sind und stapelt sie erneut wieder auf
Dass diese Anlage so funktioniert, weißt Du woher? Hast Du die etwa so programmiert? In dem Bericht steht nichts davon, dass die Anlage auch runter gefallene Pakete erkennt und wieder aufstellt. Sie nimmt Pakete vom Förderband... Die bewegt sich nicht frei im Raum... Zumindest nicht, wenn das Bild zu der Anlage gehört. Dass der Kopf versehentlich als Paket genommen wurde, war bestimmt keine bewusste Entscheidung der Maschine, sondern eine Fehlinterpretation der Sensoren oder ein Programmfehler... Wie man aus einem Bericht ohne jeglichen Zusammenhang zu KI dann behaupten kann, die Maschine hätte das absichtlich getan, lässt sehr an deiner Wahrnehmung zweifeln... Sorry, ich bleib dabei, du interprettierst hier falsche Tatsachen und behauptest, die Anlage hätte absichtlich getötet, was weder aus dem Bericht hervor geht, noch irgendwie nachvollziehbar wäre... Gehörst bestimmt zu Aluhutträgern mit Akashasäulen im Garten, die sich vor Chemtrails verstecken... Genau so kommst Du hier rüber... Für den Eindruck sorgst Du ganz alleine...
Dass der Kopf versehentlich als Paket genommen wurde, war bestimmt keine bewusste Entscheidung der Maschine, sondern eine Fehlinterpretation der Sensoren oder ein Programmfehler...
Da muss ich mich nach nochmaligem lesen korrigieren... Die Maschine hat die Person ja nicht mal bewusst gepackt... Er wurde einfach mit dem Oberkörper gegen das Band gedrückt und dabei dieser wie auch das Gesicht gequetscht. Ggf hat der Arm nicht mal die Person "erkannt" und hat sich einfach gedreht und die Person stand völlig falsch und ist dann einfach erfasst worden. Die Kraft des Roboterarm reichte dann aus, um das übrige geschehen zu lassen...
ja klar, ein "unfall".... Jeder Mensch würde wenn er jemanden umbringen will auch es so darstellen, als ob es ein "unfall" gewesen wäre....
Jetzt kommste wieder mit der Leier.. Deine Schallplatte hängt... Oh man... Ich hoffe, die Jungs mit der weißen Kuscheljacke sind bald da... Ich bin hier raus... Für mich bist Du ein Troll, ein Stimmungsmacher ohne Sinn zur Realität. Adios...
so ist nunmal die faktenlage, aber gegen fakten bist du ja immun... adios!
Ja, aber wir wissen doch gar nicht, ob diese KI auf den Unterschied Mensch/Box programmiert wurde. Es ist naheliegender (und für die Erklärung des Vorfalls völlig ausreichend), anzunehmen, dass diese KI (was nichts über andere KI aussagt) diesen Unterschied gar nicht kannte.
Wenn nun der Programmierer davon ausging "da kommen eh nur Boxen und sonst nichts", wozu sollte er da diese Unterscheidung einprogrammieren?
Das wäre eine enorme Sicherheitslücke gewesen und somit zumindest in Europa und wahrscheinlich auch in USA würde die Firma dafür haften, wenn sie nicht so einen Sicherheitsmechanismus miteinbedacht hat.
Ja. Offenbar war dies eine Sicherheitslücke.
Immerhin scheinen wir uns ja in dem Punkt einig zu sein.
Man hätte aber auch einfach die ganze Anlage vom Strom nehmen können vor der Wartung.
Ich bezweifle, daß das etwas mit KI zu tun hat. Wie beim Straßenverkehr gilt auch hier: Es gibt Regeln, wie z.B. ausschließlich für die Flurförderung vorgesehene Bereiche.
Im konkreten Fall war die Objekterkennung unzureichend, das eigentliche Kernproblem aber, daß man meinte im laufenden Betrieb das Problem in Ordnung bringen zu wollen.
Das hat etwas von in den laufenden Häcksler greifen wollen...
Nein es ist vorbei
Der ist in eine Maschine gekommen und wurde zerquetscht.
Wäre ungefähr so als kommt jemand in den Mähdrescher und du fragst dann ob Roboter die Welt übernehmen.
Kompletter Quatsch. War einfach nur ein tragischer Unfall.
na klar... diese "dumme Maschine" hat es nur dargestellt als wäre es ein Unfall gewesen, das hätten Menschen ja auch gemacht....