In letzter Zeit wird häufig vor den Gefahren von KI gewarnt und dass diese außer Kontrolle geraten und nicht mehr vom Menschen beherrscht werden könnte.
Aber genau das ist der Punkt, den ich nicht ganz verstehe.
Auch wenn KI viel kann, so ist es doch immer nur ein von Menschen geschriebenes "Programm" und kein Computer kann selbst "denken".
Alles, was eine Maschine kann, ist doch immer davon abhängig, was ihr "beigebracht" wurde und sie kann sich auch nicht eigenständig irgendwelche Dinge "anlernen" bzw. nur das, worauf sie programmiert wurde.
Vielleicht drücke ich das etwas zu vereinfacht aus, aber im Grunde läuft es doch darauf hinaus, oder?
Und letztlich kann man, auch banal gesagt, bei jeder Maschine immer noch den "Stecker ziehen" bzw. ist keine Maschine eine Gefahrt, wenn sie vom Strom getrennt ist.
Wie genau meinen das also die Experten, wenn sie davon reden, dass KI außer Kontrolle geraten könnte?