Chinas Polizeiroboter
Die chinesische Polizei testet derzeit fortschrittliche Roboter wie den kugelförmigen RT-G, der mit KI-gestützter Gesichtserkennung und nicht-tödlichen Waffen (z. B. Netzpistolen, Tränengas) ausgestattet ist. Dieser Roboter kann Verdächtige autonom identifizieren, verfolgen und sogar festnehmen, während er gleichzeitig menschliche Beamte unterstützt 211.
Funktionen:
-Bewegt sich an Land (bis zu 35 km/h) und im Wasser.
-Erkennt kriminelle Handlungen durch KI und meldet sie.
-Robust gegen Vandalismus (hält Stößen bis zu 4 Tonnen stand)
Und was war noch mal die Frage?
Das hier ist eine Diskussion und keine Frage.
11 Antworten
Wenn dieser autonom arbeitet, warum hält dann ein Beamter ein Steuergerät fest?
Zudem sieht es aufgrund der Mengen an begleitenden Polizisten eher danach aus, dass "der Gerät" geschützt werden muss (oder andere vor ihm)
Ist halt noch die Testphase.
Bei den selbstfahrenden Taxen war ja am Anfang auch immer noch jemand dabei.
Die Frage ist inwiefern die Maschiene wirklich Straftaten erkennt und wo etwas moralisch richtig oder falsch ist habe ich bedenken.
Ja, das sehe ich ähnlich.
Selbstverteidigung ist auch Gewalt gegen andere. Wenn man da nur einen eingeschränkten Blickwinkel hat (erst später hinguckt) sieht man die Gewalt nur vom eigentlichen Opfer ausgehen.
Die bayrische Polizei fängt ja schon an Palantir einzuführen – in Verkennung dessen, wie gefährlich Abhängigkeit von US-Software ist und in Verkennung dessen, dass Datenschutz und Transparenz die Grundpfeiler unsere Demokratie sind.
Ja, es wird getestet. Finde ich gut und normal, dass sich die Technik immer weiter entwickelt.
Zweifelsohne ein technischer Fortschritt, den man bewundern kann. Wenn die Testung positiv ist, kann ich nur sagen: Hut ab.
Aber: Wir müssen mit KI und Gesichtserkennung aufpassen. Es ist ein moralisch sehr heikles Thema. Biometrische Daten sind höchstsensibel und wenn sie im öffentlichen Raum erfasst werden, ist dies ohne Zustimmung und oft auch ohne Wissen. KI-Gesichtserkennung ist auch nachweislich rassistisch, da sie mehrheitlich mit den Daten "gefüttert" wird, die der "Norm" entspricht. So brennen sich Fehleranfälligkeit und auch Vorurteile in die KI ein – bei polizeilichen Ermittlungen kann das schwerwiegende Konsequenzen haben. Außerdem besteht generell auch die Gefahr des Missbrauchs.