Eine KI, deren Algorithmus berechnet, ob Angeklagte und Zeugen die Wahrheit sagen, ob Reue gespielt ist, wie wahrscheinlich ein Rückfall ist, ob Zeugenangaben glaubwürdig sind, wie sicher sich Zeugen sind oder sogar, wie erfolgversprechend Resozialisierungsmaßnahmen eingeschätzt werden.
Zur Analyse stehen der KI folgende Informationsquellen zu Verfügung:
Kameras, die Gestik, Mimik, Pupillenbewegungen einfangen.
Wärmebild, das Temperaturschwankungen festhält.
Mikrofone, die Tonlage, Lautstärke, Formulierung und Sprechgeschwindigkeit einfangen.
Aus diesen körperlichen Reaktionen und psychischen Verhaltensmustern können Rückschlüsse auf den Wahrheitsgehalt und Charakter gezogen werden.
Mehrere Studien dazu belegen, daß Menschen nur jede 2. Lügen erkennen. Dagegen ist die Treffsicherheit der KIs bis zu 50% höher, und da KIs selbstlernend sind, steigt die Treffsicherheit mit jeder Beurteilung (egal, ob sie richtig oder falsch lag), da sie ihren Algorithmus mit jeder Information anpasst und verfeinert.
https://www.connect.de/news/kuenstliche-intelligenz-luegen-erkennen-ki-besser-als-menschen-3206475.html
https://news.ncsu.edu/2024/03/18/helping-ai-detect-human-lies/#:~:text=In%20other%20words%2C%20the%20AI,detect%20inaccurate%20information%20from%20users.
Aus dem akademischen Bereich kommen auch Stimmen, die vor dem Einsatz von KI in der Justiz warnen, da Beurteilungen wenig transparent sind und die Herleitung, Begründung oder Rechtfertigung der Einschätzung komplett außer Acht gelassen wird.
https://www.uni-wuerzburg.de/aktuelles/pressemitteilungen/single/news/vorsicht-bei-ki-erkennung-von-luegen/
Würdet ihr das eher ablehnen, tolerieren oder gar begrüßen?
Sollte man es vielleicht als zusätzliche Informationsquelle zulassen, die nicht bindend ist und auch völlig ignoriert werden kann?
Oder sollte man das nicht besser konsequent ablehnen, weil Urteile über Menschen nur von Menschen gefällt werden dürfen, da es ethisch falsch (oder zumindest fragwürdig) ist, dies KIs zu überlassen?