KI bezogene Justitia?

Ich sehe das so,... 67%
Ja, interessante Idee, da bin ich dafür! 17%
Nein, ich bin Jurist und will meinen Job behalten! 17%

12 Stimmen

11 Antworten

Ich sehe das so,...

Das ergibt aus mehreren Sichten keinen Sinn:

A) KI ist fehlbar und zwar deutlich eher als es (gut ausgebildete) Menschen wären.

B) Eine KI ist nur so gut, wie die Fragen, die man ihr gibt. Es sollte aber nicht derjenige Maßgebend sein, der sie irgendwie bedient, sondern das Gesetz und die Rechtsprechung

C) Gerade die Rechtsprechung lebt davon, dass man auf die Individualität der Fälle eingeht.

D) In vielen Fällen braucht man eben doch die "emotionale Intelligenz". Gerade bei Sorgerechtsfällen und allgemein im Familienrecht ist es Unsinn, alle Emotionen wegnehmen zu wollen.

E) Man braucht eben doch Personal. Jene, die die KI bedienen, sie mit Daten füttern und mit gezielten Fragen.

"und das alles auf einer neutralen, sowie emotionslosen und damit unvoreingenommene Verfahrensweise"

Das zeigt, dass Du nicht verstanden hast, wie KI funktioniert.

Die Ergebnisse einer KI hängen von den Daten ab, aus der sie gespeist wird. Und die sind alles andere als neutral.

https://www.deutschlandfunknova.de/beitrag/gesellschaft-forscher-diskutieren-ob-ki-politische-einstellung-hat

https://digid.jff.de/magazin/diversitaet/gerecht-ki/

https://www.n-tv.de/panorama/Die-KI-plappert-Vorurteile-nach-article25620522.html


SirKermit  20.04.2025, 16:21

Ergänzend dazu aus https://www.boeckler.de/de/boeckler-impuls-vom-algorithmus-diskriminiert-47283.htm

KI lernt Vorurteile
Es gibt Untersuchungen, die darauf hindeuten, dass diese Daten oft einseitig sind, zum Beispiel wenig Informationen über Minderheiten enthalten. So besteht die Gefahr, dass KI Diskriminierung „lernt“ und damit Stereotype und Sexismus in der Arbeitswelt verstärkt. Auch Beschäftigte, die nicht direkt mit KI in Berührung kommen, sind davon betroffen. Schließlich werden algorithmische Entscheidungssysteme auch im Management eingesetzt, zum Beispiel im Personalbereich, bei der Arbeitsplanung und Leistungsbewertung. Auch hier können historisch gewachsene Vorurteile zulasten ohnehin benachteiligter Menschen reproduziert werden. Carstensen und Ganz zitieren eine Studie, die nachweist, dass Frauen schlechter bezahlte Jobs angeboten werden, wenn Unternehmen KI-basierte Software bei der Personalauswahl einsetzen.

Ich gebe mich nicht der Illusion hin, dass auch Menschen ihre Vorurteile haben, ich habe aber den Eindruck, dass KI als neutral angesehen wird, was sie nicht ist. Ob man das ändern könnte, keine Ahnung.

Hier noch mehr dazu: https://www.bpb.de/lernen/bewegtbild-und-politische-bildung/556762/diskriminierung/

Ich sehe das so,...

ich will weniger ki entwicklung

ki ist auch nicht unvoreingenommen und kann manipuliert werden

man sollte eher maßnahmen ergreifen um das problem bei menschen zu lösen

keine namen und gesichter angeben bei verfahren etc

Die Frage wurde bereits exakt so mehrfach gestellt. Daher selbe Antwort wie zuvor

-> Wenn ich auf gängige LLM zugreife und die halluziniert, dass ich von Jahr X bis Y Bürgermeister war, dann nein, vertraue ich "der KI" was Justiz an geht keinen Millimeter.

Woher ich das weiß:Berufserfahrung – Fachinformatiker
Ich sehe das so,...

Du überschätzt die technischen Möglichkeiten von KI enorm. Selbst simpelste juristische Fragestellungen kann aktuell gängige KI wie ChatGPT oft nicht korrekt beantworten. Auch spezialisierte KI, der entsprechende Trainingsdaten zur Verfügung stehen (bspw. Frag den Grüneberg von C.H.Beck) ist nur zur Unterstützung eines Fachanwenders geeignet, kann aber eigenständig keine Leistungen erbringen, die auch nur ansatzweise mit einem menschlichen Experten konkurrieren.

Abgesehen davon, dass KI fachlich oft nicht einmal mit einem Jurastudenten im ersten Semester mithalten kann, ist sie auch keineswegs neutral. Sie wird durch die ihr zur Verfügung gestellten Trainingsdaten beeinflusst – und dies letztendlich nicht nur fachlich sondern auch ideologisch.

Den Einsatz von KI zu beobachten ist richtig und wichtig; neue technische Möglichkeiten sollten beobachtet und Vorzüge von diesen entsprechend eingesetzt werden. Im juristischen Bereich wird künstliche Intelligenz aber in naher Zukunft nicht dazu führen, dass Stellen eingespart werden, insbesondere nicht bei Richtern. Sie kann einzig dazu genutzt werden, Fachanwender in ihrer Arbeit zu unterstützen, bspw. durch die Erleichterung von Recherchetätigkeiten und Zusammenfassung von Schriftsätzen.

https://www.youtube.com/watch?v=bIo0RI3d9cs

https://www.youtube.com/watch?v=Blw_ZjLbHNs

LG

Woher ich das weiß:Studium / Ausbildung – Umfassende Erfahrung mit Straf- & Wirtschaftsrecht