Es ist jetzt schon so, dass einige Behörden KI nutzen, um vorauszusagen wann und so es zu vermehrter Krimminalität kommen wird. Das ganze würde sich aber noch weiter ausbauen lassen, man könnte z.B: auch von einer KI vorraussagen bekommen, wie sich eine Person bei einer Kontrolle wahrscheinlich verhalten würde.
Als Beispiel: Die Polizei wird zu einem Streit gerufen, jetzt haben die Polizisten Bodycams und Mikrofone. Die Polizei kommt nun beim Zielort an, dort analysiert eine KI die Bild und Tondaten der Zielperson und verknüpfen das, wenn vorhanden, mit vorhandenen Daten der Person ab. Die Ki würde dann ermitteln, dass die Zielperson zu 95% seine Waffe ziehen wird und diese auf den Polizisten richtet und dann zu 80% abdrücken wird. Die KI schlägt nun ein Vorgehen vor, so dass die Zielperson sich beruhigt und gefahrlos gefangengenommen werden kann. In so einem Falle würden jetzt einige vielleicht sagen, dass so etwas defintiv nützlich wäre.
Aber, jetzt gehen wir noch einen Schritt weiter, denn die KI könnte auch Behandlungsvorschläge geben, sollte man diese jetzt ignorieren, oder wäre es in diesem Falle dann doch okay diese mitzuberücksichtigen?
Aber jetzt geht es um das Strafmaß: Die KI berechnet dazu mit ein, dass diese Person ja zu diesem prozentanteil gewalttätig wird, sie sollte also dementsprechend bestraft werden. Was aber der Richter nicht weis ist wie die KI das ermittelt hatte, denn die KI weiss, der Täter ist schwarz, er hatte gerade seinen Job verloren und hat eine Scheidung hinter sich. Dazu gibt es in seiner Gegend eine sehr hohe Gangaktivität. Die KI hätte aber bei der exakt selben Situation anders entschieden, wenn der Täter Weis wäre, in einer wohlhabenden Gegend lebt und keine Geldprobleme hat, wobei sich der Täter aber in beiden Fällen exakt gleich verhält, die exakt gleiche Mimik Stimmlage u.s.w. Hier würden jetzt sicherlich viele sagen, dass in diesem Falle die KI zu weit gehen würde.
Wo liegt die Grenze, ab wann lässt man die Empfehlung der KI außen vor, wann beachtet man sie?
Aber selbst wenn wir sagen würden, wir nutzten die KI nur zur Prävention, nun haben wir folgendes Beispiel: Wir haben einen Typen, der Geiseln nimmt. Der Geiselnehmer hat eine Bombe und einen Zünder. Die KI ermittelt nun, dass der Geiselnehmer zu 99% die Bombe zünden wird und selbst die vorsichtigste Deeskalation senkt dieses Risiko nur auf 95%. Wenn die Bombe gezündet wird, werden vorraussichtlich 10 Menschen sterben. Das einzige was helfen könnte, wäre dem Geiselnehmer alles zu geben was er will, aber das ist ein no-go, denn wenn das klappt wäre das ein Freifahrtschein für alle anderen Geiselnehmer genauso zu handeln.
Die KI gibt also nun die ganz klare Handlungsempfehlung: Man soll den Geiselnehmer ohne Verhandlungen sobald es möglich ist erschiesen, denn alles andere würde halt zu bestenfalls 95% zur Zündung der Bombe führen.
Wie agiert man nun? Erschiest man die Person?
Aber wenn man das jetzt kalt und logisch betrachten würde und sich entscheidet den Geiselnehmer zu erschiesen, wie wirkt sich das dann auf die Zukunft aus? Geiselnehmer werden nun damit rechnen direkt erschossen zu werden, verhindert das Geiselnahmen oder bewirkt es eher, dass Geiselnehmer weitaus radikaler vorgehen werden?
Gut okay, hier würden wahrscheinlich die meisten Leute gegen die Erschiesung des Geiselnehmers sein, aber was wenn die KI das mitberücksichtigt? Die KI will ein positives Ergebniss bekommen, sie hat von Menschen gelernt, sie kann deswegen auch Tricks und Manipulation benutzen. Die KI schlägt also nun ein Vorgehen vor, von dem sie berechnet hat, das wird den Geiselnehmer so beeinflussen, dass er die Polizei dazu zwingt ihn zu erschiesen. Die KI plant also die Hinrichtung des Geiselnehmers vor, die Polizisten wissen es nur nicht. Wie könnte man so etwas vermeiden?
Und nun geht es noch weiter: Die KI soll gut darin werden Verbrechen zu verhindern, aber wie wurde das definiert? Vielleicht gab es die Anweisung, dass Kriminelle aufgespürt werden sollen. Naja die KI ist so designt erfolgreich zu sein, wenn sie aber durch Handlungen und Auftreten der Polizei dafür sorgt, dass es mehr Kriminelle gibt, würden logischerweise auch mehr Kriminelle aufgespürt werden. Diese KI würde als Erfolgreicher als andere die das nicht machen gelten und in diesem Verhalten bestärkt werden. Wie soll man so etwas vermeiden?