11 Antworten

Ja, jetzt ist es noch möglich.

Es war keine künstliche Intelligenz sondern ein fest programmierter Industrie-Roboter. Im Artikel wurde das Thema "KI" mit keinem einzigem Wort erwähnt. Und wer schon einmal in einer automatisierten Produktion gewesen ist, weiss, dass solche Industrieroboter weit weit entfernt sind von jeglicher "Intelligenz". Sie besitzen Sensoren und können auf deren Input hin reagieren. DAS WAR'S!

Ich bitte Dich, wenn Du shcon Artikel zitierst oder darauf hin fragst, dass Du bitte den Artikel erst einmal richtig liest und Dir diesen vielleicht erst einmal übersetzen lässt.

Und NOCH können wir die Entwicklung zu einer vernetzten Super-intelligenz aufhalten - zumindest, soweit wird das offiziell wissen. Denn niemand wird uns sagen, ob solche nicht schon lange im Hintergrund agiert.

Aber ganz klar ist: Wir können JETZT die Entwicklung künstlicher Intelligenz stoppen, einfrieren und mit einem Moratorium belegen. Wir können jetzt noch die Wissenschaft zu einem freiwilligen Verzicht auf entsprechende Forschung und Entwicklung bringen.

Woher ich das weiß:eigene Erfahrung – Menschlichkeit ist mein persönlicher Grundsatz!

Naja, das war ein Unfall, es war ja gerade NICHT so, dass diese Maschine besonders intelligent war und die Absicht hatte, ihn zu töten. Im Prinzip war dies nichts anderes als ein tragischer Unfall mit einer völlig "dummen" herkömmlichen Maschine.

Das fiktive KI-Szenario ist ja so: die Maschine ist so intelligent, dass sie einen Menschen mit Absicht tötet (also selber auf diesen Plan gekommen ist). In diesem Falle war das aber nicht so. Im Grunde hatte der Unfall gar nichts mit KI zu tun.

slimshadyback 
Fragesteller
 10.11.2023, 00:40

na klar... diese "dumme Maschine" hat es nur dargestellt als wäre es ein Unfall gewesen, das hätten Menschen ja auch gemacht....

0
slimshadyback 
Fragesteller
 10.11.2023, 00:44
@OlliBjoern

Wenn ein Mensch einen anderen Menschen aus dem Weg räumen will, dann ist es am geschicktesten den Tod als "Unfall" darzustellen, um selbst keinen Ärger zu bekommen. Warum sollte eine KI sich selbst in Gefahr bringen indem sie offen zugibt den Menschen absichtlich getötet zu haben?

0
OlliBjoern  10.11.2023, 00:46
@slimshadyback

Die Maschine hat nicht geplant, ihn zu töten. Die macht halt immer dasselbe mit den Objekten, die unter sie kommen, und ob da nun eine Box oder ein Mensch liegt, konnte sie nicht mal unterscheiden.

Das ist weder geplant noch intelligent.

0
slimshadyback 
Fragesteller
 10.11.2023, 00:48
@OlliBjoern

Sie wurde darauf trainiert Boxen zu erkennen... Ein Mensch ähnelt nicht einer Box.... daher kann es kein Unfall sein

0
SpitfireMKIIFan  10.11.2023, 01:41
@slimshadyback

Und da hat der Programmierer dem Roboter explizit den Unterschied zwischen Box und Mensch erklärt?

Durch Industrieroboter sind schon Menschen gestorben zu einem Zeitpunkt, da war der Begriff KI ein Science-Fiction Konstrukt aus Star Trek und Anderem. Nicht umsonst schreibt der Arbeitsschutz hierzulande eine sehr strikte Trennung solcher Industrieroboter von menschlichen Arbeitsplätzen vor. Die Maschine unterscheidet nicht, sie macht einfach, was ihr gesagt wurde.

"Hier greifen, dahin bewegen, dort loslassen"

Da wird auch keine Box mehr erkannt. Einfach greifen und bewegen. Starr einprogrammiert in ein paar Codezeilen.

2
NicolasHelbig  10.11.2023, 01:53
@slimshadyback

Du machst den Fehler, davon auszugehen, dass die KI von selbst weiter denkt. Wenn man ein neuronales Netzwerk darauf trainiert, Boxen zu erkennen, dann erkennt es Boxen. Und das wars. Mehr passiert da nicht. Die Maschine kann also letztendlich nur erkennen, dass es entweder eine Box ist oder nicht. Wenn dabei ein Fehler passiert, dann kann das nur mutwillig geschehen, indem irgendwer die Maschine darauf trainiert hat, bestimmte Menschen auch als Boxen zu erkennen.

Und das klingt mir dann nicht nach einem Problem mit KI im allgemeinen. Das ist ungefähr so, als würdest du einen Hammer durch die Scheibe deines Nachbarn sagen und dann behaupten, dass der Hammer ihn wohl nicht mögen würde. Ein Hammer kann Leute aber nicht nicht mögen.

Hier in dem Falle ist es so, als hättest du den Hammer versehentlich irgendwo drauf fallen lassen. Du hast nicht geplant etwas kaputt zu machen, aber es ist kaputt und der Hammer hatte auch da nicht wirklich einen Einfluss drauf. Der Hammer hat nur entsprechend seinen äußeren Einflüssen "gehandelt" - er ist also gefallen.

Es gibt keinen Grund, weshalb die Argumentation, dass KI sich an der Menschheit rächt, basierend auf diesem Bericht, irgendeinen Sinn ergibt. Die KI versucht einfach nur, zu erraten, was die Trainingsdaten in ihren Umständen getan hätten - und wenn die Trainingsraten nicht ausreichend sind, dann passiert eben das.

1
slimshadyback 
Fragesteller
 10.11.2023, 10:45
@SpitfireMKIIFan

Nö, ein Neuronales Netz funktioniert ja genau so, dass man nichts erklären muss. Die KI weiß von selbst was wichtig ist umzu erkennen ob da eine Box ist oder nicht.

0
SpitfireMKIIFan  10.11.2023, 16:09
@slimshadyback

Nochmal: Für ein stumpfes Bewegungsmuster braucht es keine KI, das ist Verschwendung von Ressourcen und übersteigt die Fähigkeiten des durchschnittlichen Automatisierungstechnikers, der den Roboter einrichtet, bei Weitem.

Wer 1976 in Zwickau in die Trabantwerke geblickt hat, wird auch dort schon Schweißroboter in der Montage gesehen haben, und wer dort nicht aufgepasst hat, ist auch damals schon von einem solchen getötet worden. Meinst du, die haben das damals auch schon bewusst gemacht? Mit einer in Lochkarten und Magnetbändern verewigten, hochkomplexen KI?

Ich hatte vor Jahren ein Lego Mindstorms-Set. Und als der daraus gebaute Roboter gemäß seiner Programmierung einer schwarzen Linie folgen sollte, ist er mir auch über die Hand gefahren, wenn ich sie ihm vor die Räder gehalten habe. War mein Lego-Roboter da auch darauf aus, mir die Hand zu zerquetschen und konnte es nur nicht?

Lerne bitte die Grundsätze des logischen und rationalen Denkens und mische nicht irgendwelches Stammtischgerede mit Skynet-Geschichten.

1
slimshadyback 
Fragesteller
 10.11.2023, 19:58
@SpitfireMKIIFan

das ist kein stumpfes bewegungsmuster... Die Boxen haben unterschiedliche größe mit unterschiedlichen gewichten, da braucht es eine KI um das zu erkennen....

0
slimshadyback 
Fragesteller
 10.11.2023, 21:54
@SpitfireMKIIFan

nein, sie ist ja mechanisch... du solltest mal einen Informatik Anfänger kurs besuchen....

0
SpitfireMKIIFan  10.11.2023, 21:55
@slimshadyback

Miene elektronische Küchenwaage meinetwegen? Hat die eine KI? Wie siehts mit dem digitalen Messschieber aus? Sagt dir das Wort "Sensor" etwas?

0
SpitfireMKIIFan  10.11.2023, 22:04
@slimshadyback

Den habe ich bei meinem Studium uA. belegt. Aber du kommst der Sache ja schon näher, Sensoren brauchen keine KI, sie messen eine Größe und geben diese als elektrisches Signal aus. Was man analog oder digital auswerten kann und davon abhängig ein Programm steuern kann.

Das alles ist auch keine KI.

0
slimshadyback 
Fragesteller
 11.11.2023, 17:18
@Onaxer

ja, ist echt erbärmlich, wenn sich Leute mit KI nicht auskennen...

0
RareDevil  11.11.2023, 17:28
@slimshadyback
ja, ist echt erbärmlich, wenn sich Leute mit KI nicht auskennen...

Nach dem, was ich hier an Antworten von Dir lese, muss ich zustimmen. Denn DU erkennst den Unterschied zwischen KI und fest programmierter Maschinenlinie nicht. Und deine "Besessenheit" von tötenden Maschinen ist schon erschreckend. Schau weniger TV und geh mal zum Doc. Keine Technik ist perfekt. Sensoren versagen, Fehler im Computerprogramm sind menschlicher Natur... Einen Unfall zu einem "Mordattentat künstlicher Intelligenz" zu machen, ist schon echt armselig... Entweder willst Du nur provozieren und trollen, oder dein Verstand ist irgendwo auf der Strecke geblieben.. Sorry... Aber anders kann man deine Einstellung hier nicht sehen...

1
slimshadyback 
Fragesteller
 11.11.2023, 17:30
@RareDevil

sorry bin Informatiker und erkenne dies sehr wohl, da ich ML Anwendungen auch entwickle....

0
RareDevil  11.11.2023, 17:35
@slimshadyback

Gerade dann solltest Du ja wissen, dass solche Sortieranlagen vorprogrammierten Mustern folgen und nicht selbstständig denken. Es werden Sensoren ausgewertet und entsprechend Bewegungsabläufe ausgeführt, die vorprogrammiert sind. Mehr nicht. Die denkt sich nicht einfach "das Gesicht passt mr nicht, den zieh ich aus dem Verkehr"... Was für eine gestörte Wahrnehmung hast Du eigentlich? Dann hat jeder Tesla, der autonom bei Probefahrten verunglückt ist und ggf todesfolgen mit sich brachte, diese auch absichtlich verursacht? Oh man.. Komm mal auf dein Leben klar...

2
slimshadyback 
Fragesteller
 11.11.2023, 17:38
@RareDevil

Boxen stapeln ist nicht ein vorprogrammiertes Muster.... Was wenn die Boxen umfallen? Steht dann die ganze Produktion still, bis ein Mensch die aufräumt? Nein, die KI erkennt, dass die Boxen umgefallen sind und stapelt sie erneut wieder auf, was durch die Entropie natürlich nicht bereits vorprogrammiert sein kann, da die Boxen zufällig umfallen!!

0
RareDevil  11.11.2023, 17:43
@slimshadyback
Nein, die KI erkennt, dass die Boxen umgefallen sind und stapelt sie erneut wieder auf

Dass diese Anlage so funktioniert, weißt Du woher? Hast Du die etwa so programmiert? In dem Bericht steht nichts davon, dass die Anlage auch runter gefallene Pakete erkennt und wieder aufstellt. Sie nimmt Pakete vom Förderband... Die bewegt sich nicht frei im Raum... Zumindest nicht, wenn das Bild zu der Anlage gehört. Dass der Kopf versehentlich als Paket genommen wurde, war bestimmt keine bewusste Entscheidung der Maschine, sondern eine Fehlinterpretation der Sensoren oder ein Programmfehler... Wie man aus einem Bericht ohne jeglichen Zusammenhang zu KI dann behaupten kann, die Maschine hätte das absichtlich getan, lässt sehr an deiner Wahrnehmung zweifeln... Sorry, ich bleib dabei, du interprettierst hier falsche Tatsachen und behauptest, die Anlage hätte absichtlich getötet, was weder aus dem Bericht hervor geht, noch irgendwie nachvollziehbar wäre... Gehörst bestimmt zu Aluhutträgern mit Akashasäulen im Garten, die sich vor Chemtrails verstecken... Genau so kommst Du hier rüber... Für den Eindruck sorgst Du ganz alleine...

1
RareDevil  11.11.2023, 17:51
@RareDevil
Dass der Kopf versehentlich als Paket genommen wurde, war bestimmt keine bewusste Entscheidung der Maschine, sondern eine Fehlinterpretation der Sensoren oder ein Programmfehler...

Da muss ich mich nach nochmaligem lesen korrigieren... Die Maschine hat die Person ja nicht mal bewusst gepackt... Er wurde einfach mit dem Oberkörper gegen das Band gedrückt und dabei dieser wie auch das Gesicht gequetscht. Ggf hat der Arm nicht mal die Person "erkannt" und hat sich einfach gedreht und die Person stand völlig falsch und ist dann einfach erfasst worden. Die Kraft des Roboterarm reichte dann aus, um das übrige geschehen zu lassen...

0
slimshadyback 
Fragesteller
 11.11.2023, 17:59
@RareDevil

ja klar, ein "unfall".... Jeder Mensch würde wenn er jemanden umbringen will auch es so darstellen, als ob es ein "unfall" gewesen wäre....

0
RareDevil  11.11.2023, 18:01
@slimshadyback

Jetzt kommste wieder mit der Leier.. Deine Schallplatte hängt... Oh man... Ich hoffe, die Jungs mit der weißen Kuscheljacke sind bald da... Ich bin hier raus... Für mich bist Du ein Troll, ein Stimmungsmacher ohne Sinn zur Realität. Adios...

0
slimshadyback 
Fragesteller
 11.11.2023, 18:02
@RareDevil

so ist nunmal die faktenlage, aber gegen fakten bist du ja immun... adios!

0
OlliBjoern  11.11.2023, 20:55
@slimshadyback

Ja, aber wir wissen doch gar nicht, ob diese KI auf den Unterschied Mensch/Box programmiert wurde. Es ist naheliegender (und für die Erklärung des Vorfalls völlig ausreichend), anzunehmen, dass diese KI (was nichts über andere KI aussagt) diesen Unterschied gar nicht kannte.

Wenn nun der Programmierer davon ausging "da kommen eh nur Boxen und sonst nichts", wozu sollte er da diese Unterscheidung einprogrammieren?

0
slimshadyback 
Fragesteller
 11.11.2023, 21:10
@OlliBjoern

Das wäre eine enorme Sicherheitslücke gewesen und somit zumindest in Europa und wahrscheinlich auch in USA würde die Firma dafür haften, wenn sie nicht so einen Sicherheitsmechanismus miteinbedacht hat.

1
OlliBjoern  16.11.2023, 23:49
@slimshadyback

Ja. Offenbar war dies eine Sicherheitslücke.
Immerhin scheinen wir uns ja in dem Punkt einig zu sein.

Man hätte aber auch einfach die ganze Anlage vom Strom nehmen können vor der Wartung.

0
Von Experte OlliBjoern bestätigt
Ja, jetzt ist es noch möglich.

Ich bezweifle, daß das etwas mit KI zu tun hat. Wie beim Straßenverkehr gilt auch hier: Es gibt Regeln, wie z.B. ausschließlich für die Flurförderung vorgesehene Bereiche.

Im konkreten Fall war die Objekterkennung unzureichend, das eigentliche Kernproblem aber, daß man meinte im laufenden Betrieb das Problem in Ordnung bringen zu wollen.

Das hat etwas von in den laufenden Häcksler greifen wollen...

Nein, zu spät.

Nein es ist vorbei

Woher ich das weiß:eigene Erfahrung – Liebe kontroverse Gesellschaftsfragen
Ja, jetzt ist es noch möglich.

Der ist in eine Maschine gekommen und wurde zerquetscht.

Wäre ungefähr so als kommt jemand in den Mähdrescher und du fragst dann ob Roboter die Welt übernehmen.

Kompletter Quatsch. War einfach nur ein tragischer Unfall.

Woher ich das weiß:Berufserfahrung – Beruf und Interesse