Sollten wir unser Justizsystem automatisieren?

Das Ergebnis basiert auf 27 Abstimmungen

Nein bitte nicht, weil 😔 74%
Ja klingt gut 👍😇 26%

4 Antworten

Nein bitte nicht, weil 😔

So funktioniert Rechtsprechung nicht. Man braucht begründete Entscheidungen, die man auch von höheren Instanzen nachprüfen kann, keine Wahrscheinlichkeitsmultiplikationen, bei denen niemand sagen kann, wie die KI auf das Ergebnis gekommen ist.


Senbu  06.06.2024, 17:32

Genau das kann aber eine KI. In der Ausgabe kann sich das Urteil befinden, sowie eine objektive Beurteilung dessen wie die KI dazu gekommen wäre. Bei einer einheitlichen KI gäbe es somit ein großes Problem nicht und zwar subjektive Einordnung des Richters und somit unfaire Behandlung.

1
Schestko  06.06.2024, 17:46
@Senbu

Man kann bei einer KI technisch nicht nachvollziehen, wie sie zu ihrem Ergebnis gekommen ist. Außerdem gibt es verschiedene Rechtsauffassungen/Meinungen, die von einem Richter entschieden werden müssen. Es gibt keine Veranlassung zu glauben, dass ein von einer KI ausgeübter Entscheidungsspielraum weniger willkürlich wäre, als bei einem oder mehreren Richtern, deren Entscheidungen auch noch einer rechtlichen Nachprüfung durch höhere Instanzen standhalten müssen.

0
Senbu  06.06.2024, 18:47
@Schestko

Man kann die KI das Ergebnis logisch darstellen lassen, genauso wie es bei Beweisen in der Mathematik ist. Dann wird es eine Struktur geben, die auflistet aufgrund welcher Parameter die KI zu dem und dem Ergebnis kam welches dann zu einem Endergebnis geführt hat. In seltenen Spezialfällen könnte man KI mit einem Richter kombinieren und zusätzlich noch durch weitere KI die Objektivität prüfen.

1
Schestko  06.06.2024, 19:01
@Senbu

Jura ist nunmal keine Mathematik. Es geht um juristische Abwägungen, die eben nur Menschen machen können. Auch rechtlich geht es nicht anders, denn nur Richter haben die notwendige demokratische Legitimation, rechtliche Entscheidungen zu treffen (Art. 20 II GG). Und beim aktuellen technischen Stand ist es ohnehin nicht möglich. ChatGPT kann selbst auf einfache Rechstfragen keine richtige Antwort geben. Es hört sich schön an, ja, aber es ist eben falsch.

1
Senbu  06.06.2024, 19:09
@Schestko

Ja, jura ist eine weiche Wissenschaft. Das habe ich vergessen zu berücksichtigen. Jedoch folgt man dort dem Gesetzbuch und alles basiert auf physischen Beweisen, die wiederum auswertbar sind.

Wenn die Forschung weiter geht und die Option in Betracht gezogen wird, dann wird sich die KI auf diesem Feld verbessern. ChatGPT ist ein Sprach-KI-Modell. Ein anderes Einsatzgebiet. Richter sind auch gesetzlich zur Neutralität und Objektivität verpflichtet. Ist das der Fall, wenn Richter subjektiv, jedoch möglichst objektiv verschleiert, entscheiden?

0
Schestko  06.06.2024, 20:34
@Senbu

Man folgt bei Jura ja nicht stumpf dem Gesetzbuch. Das Wesen der Rechtswissenschaften ist es, Gesetze auszulegen und ihre Anwendung im Einzelfall zu bestimmen. Ein guter Richter entscheidet nicht subjektiv, sondern anhand objektiver Kriterien. Der Maßstab muss bei allen Beteiligten der gleiche sein.

0
Senbu  06.06.2024, 21:43
@Schestko

Objektivität kann eine KI gut, Menschen eher weniger. In der Frage geht es nicht darum Rechtswissenschaftler zu ersetzen, sondern Gesetzesbrüche als solche zu verurteilen.

0
Schestko  06.06.2024, 23:32
@Senbu

Man kann eine KI auch so programmieren, dass sie einen Bias hat. ChatGPT ist da ja wieder ein Beispiel dafür. Außerdem hängen die Entscheidungen einer KI ja davon ab, mit welchen Daten sie gefüttert wird. Menschen werden der KI bereits deshalb immer überlegen sein, weil sie denken können, abwägen, Empathie empfinden. Das alles kann eine KI nicht. Eine KI ist im Grunde weniger objektiv, als ein programmierter Algorithmus, der starr irgendwelche festgelegten Regeln befolgt.

0
Senbu  07.06.2024, 00:33
@Schestko

Dann ist es aber die Schuld von korrupten Personen, die es entwickeln. Die KI wird jedoch objektiv sein anhand der Daten. Ein Richter, egal wie gut, kann davon nur träumen.

"Menschen werden der KI bereits deshalb immer überlegen sein, weil sie denken können, abwägen, Empathie empfinden."

Aber genau das sind doch die Schwachpunkte. Wieso verkaufen Sie jene als Vorteile?

0
Schestko  07.06.2024, 00:51
@Senbu

Wie soll man das kontrollieren? Wer soll bestimmen, mit welchen Daten sie gefüttert wird?

Weil es in einem Rechtsstaat ein Elementares Prinzip ist, dass Entscheidungen verhältnismäßig sein müssen. Man will auch kein kaltes Justizsystem, in dem ohne Berücksichtigung der Betroffenen einfach nach starren Regeln entschieden wird. Deshalb gibt es im Strafrecht ja zum Beispiel Schöffen, die als Laienrichter gerade nicht starr nach der Rechtslage entscheiden sollen. Unser Rechtssystem sieht auch nicht vor, dass Entscheidungen starr sind. Nicht nur Richter haben gewisse Entscheidungsspielräume, sondern z.B. auch Behörden. Nur so kann dem Verhältnismäßigkeitsgrundsatz Rechnung getragen werden.

0
Senbu  07.06.2024, 02:17
@Schestko

Zuallererst Daten wie alle Deutschen Gesetze. Dazu Präzedenzfälle und mit hinzu noch Gerichtsfälle der letzten x Jahrzehnte. Jedoch die Relevanz auf die Gesetze und die Fälle als Beispiel subjektiver Subjekte als Entscheidungsträger. Sinnvoll wäre noch Kriminalwissen, sowie Wissen zu Biologie, Physik und Chemie. Dann bei jedem Fall alle Beweise eingeben und auf das Resultat warten.

Es wäre jedoch ein enormes Projekt von nöten.

"Man will auch kein kaltes Justizsystem, in dem ohne Berücksichtigung der Betroffenen einfach nach starren Regeln entschieden wird."

Man möchte also ein wischi waschi System mit Täterschutzt statt Opferschutz und Belohnung für Straftaten, wenn man im Nachhinein ein bissi Wasser in den Augen hat. Einer der Gründe wieso ich von solchen weichen Konstrukten nichts halte.

"Nicht nur Richter haben gewisse Entscheidungsspielräume, sondern z.B. auch Behörden."

Und das liefert Radikalen viel Stoff, den sie verwenden können um Gruppen gegeneinander aufzubringen. Genauso wie es unfaire Bestrafung gutheißt.

0
Ja klingt gut 👍😇

Ja, mit Einschränkungen... ganz viele kleine und einfache Fälle kann man bestimmt automatisch entscheiden. Bspw. wenn es um kleinere Beträge geht oder wenn zu einer Konstellation schon häufig ein Urteil gesprochen wurde. Vielleicht würde das bei manchen Fällen die Rechtsprechung sogar etwas objektiver gestalten.

Warum so umständlich... wir holen einfach Stallone aus dem Altenheim und stecken ihn wieder in sein Judge Dredd Kostüm.

Da sparen wir uns Gesetzgebung, Polizei und Gerichte. Und erst die Kosten die wir für die Gefängnisse sparen....

Wenn es Sly nicht mehr bringt nehmen wir eben Karl Urban... der war in der Neuverfilmung auch ok.

Nein bitte nicht, weil 😔

... es bei Prozessen nicht um Schnelligkeit geht.


Senbu  06.06.2024, 17:34

Jedoch um Objektivität und Achtung der Gesetze. Subjektivität würde dann wegfallen und Gesetze könnten geachtet werden ohne die Ansicht eines subjektiven Richters einfließen zu lassen.

1
superseegers  06.06.2024, 17:39
@Senbu

Okay, wer stellt dann wie so Elemente von Vorsatz fest? Oder ein Motiv für die Tat, z.B. bei Mord?

0
Senbu  06.06.2024, 18:44
@superseegers

Aktuell forscht man an KI in anderen Bereichen. Dies kann man aber, wenn es akzeptiert wird, auch auf diesen Bereich ausweiten. KI erkennt schon jetzt reichlich Zusammenhänge. Wenn man objektiv die Sachlage schildert und dann die Aussagen des Verklagten sowie von Zeugen einfließen lässt, ließe sich eine tatsächlich objektive Entscheidung treffen.

1
superseegers  07.06.2024, 01:06
@Senbu

Never ever darf das aus der Hand von Menschen gegeben werden. Eine Handhabung wie bei einem Bußgeldkatalog ist für mich bei Straftaten undenkbar.

0
Senbu  07.06.2024, 02:19
@superseegers

Ich nehme zu Kenntnis, dass Sie unsere Gesetze nicht achten wollen und für wischi waschi Reaktionen auf Straftaten sind. Bei solch einer Gegenposition ist jedwede Diskussion sinnlos, weshalb ich Ihnen eine schöne Nacht wünsche.

1