KI als Werkzeug zur Kriminalitätsbekämpfung - Wo sind die Grenzen?

2 Antworten

Der erste Teil ist etwas ganz anderes als die darauf folgenden.

Stärken von KI-Systemen sind es gewaltige Datenmengen selbstständig mit relativ geringem menschlichen Input zu nehmen, analysieren und Schlüsse daraus zu ziehen/Wahrscheinlichkeiten zu berechnen.

Die KI könnte hier anhand von Kriminalhistorie, berechnen wo und wann es vermutlich zu Raubüberfällen kommen könnte.

Der Rest davon ist Punkt heute nicht durch KI zu bearbeiten, jedenfalls nicht wenn man vernünftige Ergebnisse will.

KI in Echtzeit macht Stand heute gar keinen Sinn daher die KI nicht die menschliche Willkür berechnen kann. Es kann berechnen wie gut die Position eines Schützen ist und wie wahrscheinlich ein tödlicher Treffer erfolgt durch das abschätzen der Position, der Bewaffnung und der Bedingungen aber ob der Schütze tatsächlich auch schießt, der von Polizisten umzingelt ist und dem klar ist sobald ich hier einen Schuss mache kommen die hier hoch und holen mich. Kann KI punkt heute nicht voraussagen.

In der Rechtsprechung ist KI ebenfalls noch nicht einsetzbar daher auch hier eine menschliche Einschätzung von Nöten ist. Eine KI kann nur Daten analysieren aber keine Zusammenhänge auf die menschliche Natur erschließen.

Es ist also denkbar, dass eine KI eine ähnlich hohe Strafe für einen Mörder der 3 Leute auf seinem Grundstück ermordet hat, die alle bewaffnet waren und seine Familie umbringen wollten, vorschlägt wie bei jemanden der mit einer Pistole in ein Einkaufszentrum gerannt ist und unbewaffnete Zivilisten hinrichtet.

Solche Zusammenhänge sind aber sehr wichtig für die Rechtsprechung.


Richard30 
Beitragsersteller
 08.12.2024, 17:21

Verstehe.

Aber wie wird sich das ganze weiterentwickeln? Früher oder später sollten solche Dinge doch eher realisierbar sein, oder nicht?

Dissoziiert  08.12.2024, 17:26
@Richard30

Möglicherweise, möglicherweise auch nicht. Vielleicht ist das auch nicht wirklich umsetzbar einem künstlich erschaffenen neuronalen Netzwerk echtes Verständnis für fühlende Organismen zu verschaffen vorallem in so hoch komplexen Szenarien.

Oberflächlich geht das ja schon eine KI versteht durch aus das ein Hund Angst und Schmerz empfindet wenn er geschlagen wird, aber solche Szenarien wie von dir beschrieben brauchen in jedem Fall einen Arbeitsspeicher den vermutlich nicht mal alle ESA und NASA Systeme haben-

Zukünftig schon möglich, mal sehen wie das weiter geht. Hängt auch von Wirtschaftsinteressen ab worin mehr Geld investiert wird.

Was Du als Beispiele bringst, gibt es auch teilweise bereits ohne KI.

Beispielsweise werden Fälle von häuslicher Gewalt mit einer Art "pychologischem Fragebogen" untersucht. Dieser Fragebogen wurde von Wissenschaftlern aus den Bereichen Psychologie, Psychiatrie, Kriminalistik usw. erstellt und in langwieriger Evaluations -und Testarbeit zu einem "verlässlichen" Instrument ausgearbeitet, das aufgrund der erhaltenen Scores gewisse statistische Aussagen mit relativ hoher Wahrscheinlichkeit zulässt, z.B. ob eine hohe Rückfallgefahr besteht, oder ob jemand der z.B. ein Sexualstrafdelikt mit gewissen Tateigenschaften begangen hat, auch mit deutlich erhöhter Wahrscheinlichkeit für ein Beziehungsdelikt in Frage kommt. Z.B. ODARA ist ein solches Instrument, das gerne von Behörden verwendet wird, um die Gefährlichkeit von gewissen Straftätern messbar machen zu können.

Die KI verhält sich diesbezüglich eigentlich gar nicht so viel anders. Auch bei neuralen Netzen wird eine Vielzahl von empirischen Daten gesammelt und es werden Aussagen über die Wahrscheinlichkeit von Zusammenhängen zwischen diesen Daten abgeleitet. Das heisst, z.B. ein behördlich verwendetes KI-Modell zur Evaluierung der Gefährlichkeit von Straftätern muss mitnichten schlechter sein als ein klassisches, statistisches Modell. In beiden Fällen muss wissenschaftlich belegt sein, dass die verwendeten Instrumente insgesamt eine hohe Zuverlässigkeit haben, respektive, wo das nicht der Fall ist, muss dies mitberücksichtigt werden.

In beiden Fällen, ob mit oder ohne KI-Instrument, letztlich müssen auch von den Modellen nicht berücksichtigte Fakten in ein Urteil über eine Person einfliessen. Ein Modell ist eben immer ein Modell, und es kann nie alle Faktoren und ungewöhnlichen Umstände mitberücksichtigen. Das Gleiche gilt auch, wenn z.B. ein Gerichtspsychiater ein Gutachten über einen Angeklagten erstellt. Für das Gericht ist das Gutachten nur einer von vielen Anhaltspunkten, die in das Urteil einfliessen, und es hat keine absolute Entscheidungskraft.

Ich denke, die heutigen KI-Modelle sind gar nicht in der Lage, Entscheidungen nach ethischen, moralischen oder emotionalen Gesichtspunkten zu treffen. Es bleibt deshalb dabei, dass die KI nur ein Hilfsmittel zur Entscheidungsfindung ist, aber die letztendliche Entscheidung der Mensch selbst treffen muss. Gemäss Aussagen von Forschern sind wir noch weit davon entfernt, so etwas wie eine echte, allumfassende künstliche Intelligenz zu haben. Auch sieht man dies bei haftungsrechtlichen Fragen, etwa wer die Schuld an einem Autounfall mit einem KI-gesteuerten Auto trägt. Ich denke, auf längere Frist wird kein Konzern und keine Versicherung dieses (Klumpen-)Risiko auf sich nehmen wollen. Es wird wohl auch bei einer weitgehenden Automation dabei bleiben, dass rechtlich letztlich der Mensch verantwortlich ist, und das bedeutet gleichermassen, dass er a) trotz Automatik verpflichtet ist, das, was die Automatik macht, zu überprüfen und b) jederzeit in den Automatikprozess korrigierend wird eingreifen können müssen (also z.B. ein automatisch gelenktes Auto per Bremse zum Stillstand bringen).