Das Hauptproblem ist das Ausklammern des menschlichen Faktors. Kann man machen, ist dann aber auch wieder "ungerecht", da alle Fälle abseits der moralischen Werte, also der persönlichen Notwendigkeit zur Straftat, über einen Kamm geschoren werden.
Sollte z.B. jeder Mord gleich behandelt werden? Im Gesetzestext wird zwar ein Unterschied zwischen Notwehr und gezieltem Mord gemacht, oder auch beim Thema Beihilfe; aber der Richter entscheidet letztlich, um wieviel solche Aspekte wie Reue, Einsicht und "Aussicht auf Besserung" die Strafe abmildern. So etwas kann man Maschinen nicht zumuten, es sei denn man programmiert sie darauf. Ist auch möglich.
Doch wie Unterschied reagiert ein Mensch auf eine Maschine, der gegenüber er Einsicht zeigen soll? Es wäre automatisiert, weniger menschlich, nicht emotional an eine Person gerichtet.
Es wäre sicherlich nützlich ein Programm/eine KI zu besitzen die nach Angabe aller Faktoren (Schwere/Art der Tat etc.) eine ungefähre "Empfehlung" abgeben würde, inkl. Begründung. Der Richter kann daraus dann selbst ein Urteil fällen.