KI als Werkzeug zur Kriminalitätsbekämpfung - Wo sind die Grenzen?
Es ist jetzt schon so, dass einige Behörden KI nutzen, um vorauszusagen wann und so es zu vermehrter Krimminalität kommen wird. Das ganze würde sich aber noch weiter ausbauen lassen, man könnte z.B: auch von einer KI vorraussagen bekommen, wie sich eine Person bei einer Kontrolle wahrscheinlich verhalten würde.
Als Beispiel: Die Polizei wird zu einem Streit gerufen, jetzt haben die Polizisten Bodycams und Mikrofone. Die Polizei kommt nun beim Zielort an, dort analysiert eine KI die Bild und Tondaten der Zielperson und verknüpfen das, wenn vorhanden, mit vorhandenen Daten der Person ab. Die Ki würde dann ermitteln, dass die Zielperson zu 95% seine Waffe ziehen wird und diese auf den Polizisten richtet und dann zu 80% abdrücken wird. Die KI schlägt nun ein Vorgehen vor, so dass die Zielperson sich beruhigt und gefahrlos gefangengenommen werden kann. In so einem Falle würden jetzt einige vielleicht sagen, dass so etwas defintiv nützlich wäre.
Aber, jetzt gehen wir noch einen Schritt weiter, denn die KI könnte auch Behandlungsvorschläge geben, sollte man diese jetzt ignorieren, oder wäre es in diesem Falle dann doch okay diese mitzuberücksichtigen?
Aber jetzt geht es um das Strafmaß: Die KI berechnet dazu mit ein, dass diese Person ja zu diesem prozentanteil gewalttätig wird, sie sollte also dementsprechend bestraft werden. Was aber der Richter nicht weis ist wie die KI das ermittelt hatte, denn die KI weiss, der Täter ist schwarz, er hatte gerade seinen Job verloren und hat eine Scheidung hinter sich. Dazu gibt es in seiner Gegend eine sehr hohe Gangaktivität. Die KI hätte aber bei der exakt selben Situation anders entschieden, wenn der Täter Weis wäre, in einer wohlhabenden Gegend lebt und keine Geldprobleme hat, wobei sich der Täter aber in beiden Fällen exakt gleich verhält, die exakt gleiche Mimik Stimmlage u.s.w. Hier würden jetzt sicherlich viele sagen, dass in diesem Falle die KI zu weit gehen würde.
Wo liegt die Grenze, ab wann lässt man die Empfehlung der KI außen vor, wann beachtet man sie?
Aber selbst wenn wir sagen würden, wir nutzten die KI nur zur Prävention, nun haben wir folgendes Beispiel: Wir haben einen Typen, der Geiseln nimmt. Der Geiselnehmer hat eine Bombe und einen Zünder. Die KI ermittelt nun, dass der Geiselnehmer zu 99% die Bombe zünden wird und selbst die vorsichtigste Deeskalation senkt dieses Risiko nur auf 95%. Wenn die Bombe gezündet wird, werden vorraussichtlich 10 Menschen sterben. Das einzige was helfen könnte, wäre dem Geiselnehmer alles zu geben was er will, aber das ist ein no-go, denn wenn das klappt wäre das ein Freifahrtschein für alle anderen Geiselnehmer genauso zu handeln.
Die KI gibt also nun die ganz klare Handlungsempfehlung: Man soll den Geiselnehmer ohne Verhandlungen sobald es möglich ist erschiesen, denn alles andere würde halt zu bestenfalls 95% zur Zündung der Bombe führen.
Wie agiert man nun? Erschiest man die Person?
Aber wenn man das jetzt kalt und logisch betrachten würde und sich entscheidet den Geiselnehmer zu erschiesen, wie wirkt sich das dann auf die Zukunft aus? Geiselnehmer werden nun damit rechnen direkt erschossen zu werden, verhindert das Geiselnahmen oder bewirkt es eher, dass Geiselnehmer weitaus radikaler vorgehen werden?
Gut okay, hier würden wahrscheinlich die meisten Leute gegen die Erschiesung des Geiselnehmers sein, aber was wenn die KI das mitberücksichtigt? Die KI will ein positives Ergebniss bekommen, sie hat von Menschen gelernt, sie kann deswegen auch Tricks und Manipulation benutzen. Die KI schlägt also nun ein Vorgehen vor, von dem sie berechnet hat, das wird den Geiselnehmer so beeinflussen, dass er die Polizei dazu zwingt ihn zu erschiesen. Die KI plant also die Hinrichtung des Geiselnehmers vor, die Polizisten wissen es nur nicht. Wie könnte man so etwas vermeiden?
Und nun geht es noch weiter: Die KI soll gut darin werden Verbrechen zu verhindern, aber wie wurde das definiert? Vielleicht gab es die Anweisung, dass Kriminelle aufgespürt werden sollen. Naja die KI ist so designt erfolgreich zu sein, wenn sie aber durch Handlungen und Auftreten der Polizei dafür sorgt, dass es mehr Kriminelle gibt, würden logischerweise auch mehr Kriminelle aufgespürt werden. Diese KI würde als Erfolgreicher als andere die das nicht machen gelten und in diesem Verhalten bestärkt werden. Wie soll man so etwas vermeiden?
2 Antworten
Der erste Teil ist etwas ganz anderes als die darauf folgenden.
Stärken von KI-Systemen sind es gewaltige Datenmengen selbstständig mit relativ geringem menschlichen Input zu nehmen, analysieren und Schlüsse daraus zu ziehen/Wahrscheinlichkeiten zu berechnen.
Die KI könnte hier anhand von Kriminalhistorie, berechnen wo und wann es vermutlich zu Raubüberfällen kommen könnte.
Der Rest davon ist Punkt heute nicht durch KI zu bearbeiten, jedenfalls nicht wenn man vernünftige Ergebnisse will.
KI in Echtzeit macht Stand heute gar keinen Sinn daher die KI nicht die menschliche Willkür berechnen kann. Es kann berechnen wie gut die Position eines Schützen ist und wie wahrscheinlich ein tödlicher Treffer erfolgt durch das abschätzen der Position, der Bewaffnung und der Bedingungen aber ob der Schütze tatsächlich auch schießt, der von Polizisten umzingelt ist und dem klar ist sobald ich hier einen Schuss mache kommen die hier hoch und holen mich. Kann KI punkt heute nicht voraussagen.
In der Rechtsprechung ist KI ebenfalls noch nicht einsetzbar daher auch hier eine menschliche Einschätzung von Nöten ist. Eine KI kann nur Daten analysieren aber keine Zusammenhänge auf die menschliche Natur erschließen.
Es ist also denkbar, dass eine KI eine ähnlich hohe Strafe für einen Mörder der 3 Leute auf seinem Grundstück ermordet hat, die alle bewaffnet waren und seine Familie umbringen wollten, vorschlägt wie bei jemanden der mit einer Pistole in ein Einkaufszentrum gerannt ist und unbewaffnete Zivilisten hinrichtet.
Solche Zusammenhänge sind aber sehr wichtig für die Rechtsprechung.
Möglicherweise, möglicherweise auch nicht. Vielleicht ist das auch nicht wirklich umsetzbar einem künstlich erschaffenen neuronalen Netzwerk echtes Verständnis für fühlende Organismen zu verschaffen vorallem in so hoch komplexen Szenarien.
Oberflächlich geht das ja schon eine KI versteht durch aus das ein Hund Angst und Schmerz empfindet wenn er geschlagen wird, aber solche Szenarien wie von dir beschrieben brauchen in jedem Fall einen Arbeitsspeicher den vermutlich nicht mal alle ESA und NASA Systeme haben-
Zukünftig schon möglich, mal sehen wie das weiter geht. Hängt auch von Wirtschaftsinteressen ab worin mehr Geld investiert wird.
Was Du als Beispiele bringst, gibt es auch teilweise bereits ohne KI.
Beispielsweise werden Fälle von häuslicher Gewalt mit einer Art "pychologischem Fragebogen" untersucht. Dieser Fragebogen wurde von Wissenschaftlern aus den Bereichen Psychologie, Psychiatrie, Kriminalistik usw. erstellt und in langwieriger Evaluations -und Testarbeit zu einem "verlässlichen" Instrument ausgearbeitet, das aufgrund der erhaltenen Scores gewisse statistische Aussagen mit relativ hoher Wahrscheinlichkeit zulässt, z.B. ob eine hohe Rückfallgefahr besteht, oder ob jemand der z.B. ein Sexualstrafdelikt mit gewissen Tateigenschaften begangen hat, auch mit deutlich erhöhter Wahrscheinlichkeit für ein Beziehungsdelikt in Frage kommt. Z.B. ODARA ist ein solches Instrument, das gerne von Behörden verwendet wird, um die Gefährlichkeit von gewissen Straftätern messbar machen zu können.
Die KI verhält sich diesbezüglich eigentlich gar nicht so viel anders. Auch bei neuralen Netzen wird eine Vielzahl von empirischen Daten gesammelt und es werden Aussagen über die Wahrscheinlichkeit von Zusammenhängen zwischen diesen Daten abgeleitet. Das heisst, z.B. ein behördlich verwendetes KI-Modell zur Evaluierung der Gefährlichkeit von Straftätern muss mitnichten schlechter sein als ein klassisches, statistisches Modell. In beiden Fällen muss wissenschaftlich belegt sein, dass die verwendeten Instrumente insgesamt eine hohe Zuverlässigkeit haben, respektive, wo das nicht der Fall ist, muss dies mitberücksichtigt werden.
In beiden Fällen, ob mit oder ohne KI-Instrument, letztlich müssen auch von den Modellen nicht berücksichtigte Fakten in ein Urteil über eine Person einfliessen. Ein Modell ist eben immer ein Modell, und es kann nie alle Faktoren und ungewöhnlichen Umstände mitberücksichtigen. Das Gleiche gilt auch, wenn z.B. ein Gerichtspsychiater ein Gutachten über einen Angeklagten erstellt. Für das Gericht ist das Gutachten nur einer von vielen Anhaltspunkten, die in das Urteil einfliessen, und es hat keine absolute Entscheidungskraft.
Ich denke, die heutigen KI-Modelle sind gar nicht in der Lage, Entscheidungen nach ethischen, moralischen oder emotionalen Gesichtspunkten zu treffen. Es bleibt deshalb dabei, dass die KI nur ein Hilfsmittel zur Entscheidungsfindung ist, aber die letztendliche Entscheidung der Mensch selbst treffen muss. Gemäss Aussagen von Forschern sind wir noch weit davon entfernt, so etwas wie eine echte, allumfassende künstliche Intelligenz zu haben. Auch sieht man dies bei haftungsrechtlichen Fragen, etwa wer die Schuld an einem Autounfall mit einem KI-gesteuerten Auto trägt. Ich denke, auf längere Frist wird kein Konzern und keine Versicherung dieses (Klumpen-)Risiko auf sich nehmen wollen. Es wird wohl auch bei einer weitgehenden Automation dabei bleiben, dass rechtlich letztlich der Mensch verantwortlich ist, und das bedeutet gleichermassen, dass er a) trotz Automatik verpflichtet ist, das, was die Automatik macht, zu überprüfen und b) jederzeit in den Automatikprozess korrigierend wird eingreifen können müssen (also z.B. ein automatisch gelenktes Auto per Bremse zum Stillstand bringen).
Verstehe.
Aber wie wird sich das ganze weiterentwickeln? Früher oder später sollten solche Dinge doch eher realisierbar sein, oder nicht?