Beispiel Gefängnis

KI schickt Leute ins Gefängnis - und macht es falsch

Die Verwendung historischer Daten zum Trainieren von Risikobewertungstools könnte bedeuten, dass Maschinen die Fehler der Vergangenheit kopieren.


KI scheint keinen großen persönlichen Einfluss zu haben, wenn Sie am häufigsten mit Algorithmen für maschinelles Lernen über den Newsfeed von Facebook oder die Suchrankings von Google arbeiten. Auf der Data for Black Lives-Konferenz am vergangenen Wochenende haben Technologen, Rechtsexperten und Community-Aktivisten die Dinge mit einer Diskussion über das amerikanische Strafjustizsystem ins rechte Licht gerückt. Dort kann ein Algorithmus die Flugbahn Ihres Lebens bestimmen.
Die USA sperren mehr Menschen ein als jedes andere Land der Welt. Ende 2016 befanden sich fast 2,2 Millionen Erwachsene in Gefängnissen oder Gefängnissen, weitere 4,5 Millionen in anderen Justizvollzugsanstalten. Anders ausgedrückt, jeder 38. erwachsene Amerikaner stand unter irgendeiner Form von Aufsicht. Der Albtraum dieser Situation ist eines der wenigen Themen, die Politiker auf beiden Seiten des Ganges vereinen.
Unter dem immensen Druck, die Zahl der Gefängnisinsassen zu verringern, ohne eine Zunahme der Kriminalität zu riskieren, haben sich die Gerichtssäle in den USA automatisierten Instrumenten zugewandt, um die Angeklagten so effizient und sicher wie möglich durch das Rechtssystem zu bringen. Hier beginnt der KI-Teil unserer Geschichte.

Polizeibehörden verwenden Vorhersagealgorithmen, um zu planen, wohin ihre Reihen geschickt werden sollen. Strafverfolgungsbehörden verwenden Gesichtserkennungssysteme, um Verdächtige zu identifizieren. Diese Praktiken haben verdientermaßen geprüft, ob sie tatsächlich die Sicherheit verbessern oder bestehende Ungleichheiten einfach aufrechterhalten. Forscher und Bürgerrechtler haben beispielsweise wiederholt gezeigt, dass Gesichtserkennungssysteme spektakulär versagen können, insbesondere bei dunkelhäutigen Personen, die sogar Kongressmitglieder für verurteilte Kriminelle halten.
Das mit Abstand umstrittenste Instrument ist jedoch die Festnahme durch die Polizei. Begrüßen Sie kriminelle Risikobewertungsalgorithmen.
Risikobewertungsinstrumente dienen dazu, eines zu tun: die Details des Profils eines Angeklagten zu erfassen und einen Rückfallwert auszuspucken – eine einzelne Zahl, die die Wahrscheinlichkeit eines erneuten Verstoßes abschätzt. Ein Richter berücksichtigt dann Faktoren, die zu einer Vielzahl von Entscheidungen führen, die bestimmen können, welche Art von Rehabilitationsleistungen bestimmte Angeklagte erhalten sollten, ob sie vor dem Prozess im Gefängnis festgehalten werden sollten und wie streng ihre Strafen sein sollten. Eine niedrige Punktzahl ebnet den Weg für ein besseres Schicksal. Eine hohe Punktzahl macht genau das Gegenteil.

Die Logik für die Verwendung solcher algorithmischen Tools besteht darin, dass Sie, wenn Sie kriminelles Verhalten genau vorhersagen können, Ressourcen entsprechend zuweisen können, sei es für die Rehabilitation oder für Haftstrafen. Theoretisch reduziert es auch jegliche Verzerrung, die den Prozess beeinflusst, da die Richter Entscheidungen auf der Grundlage datengesteuerter Empfehlungen und nicht auf der Grundlage ihres Darms treffen.
Möglicherweise haben Sie das Problem bereits erkannt. Moderne Risikobewertungsinstrumente werden häufig von Algorithmen gesteuert, die auf historischen Kriminalitätsdaten basieren.
Wie bereits erwähnt, verwenden Algorithmen für maschinelles Lernen Statistiken, um Muster in Daten zu finden. Wenn Sie also historische Kriminalitätsdaten eingeben, werden die mit Kriminalität verbundenen Muster ermittelt. Aber diese Muster sind statistische Korrelationen – bei weitem nicht die gleichen wie Ursachen. Wenn ein Algorithmus beispielsweise feststellt, dass ein niedriges Einkommen mit einem hohen Rückfall korreliert, ist es für Sie nicht klüger, ob ein niedriges Einkommen tatsächlich Kriminalität verursacht. Genau dies tun Risikobewertungsinstrumente: Sie verwandeln korrelative Erkenntnisse in kausale Bewertungsmechanismen.
Jetzt besteht die Gefahr, dass Bevölkerungsgruppen, die in der Vergangenheit von den Strafverfolgungsbehörden überproportional angegriffen wurden – insbesondere einkommensschwache Bevölkerungsgruppen und Minderheiten -, mit hohen Rückfallwerten geschlagen werden. 

Infolgedessen könnte der Algorithmus eingebettete Verzerrungen verstärken und aufrechterhalten und noch mehr verzerrte Daten erzeugen, um einen Teufelskreis zu speisen. Da die meisten Risikobewertungsalgorithmen proprietär sind, ist es auch unmöglich, ihre Entscheidungen abzufragen oder zur Rechenschaft zu ziehen.
Die Debatte über diese Tools dauert noch an. Im vergangenen Juli haben mehr als 100 Bürgerrechts- und Gemeindeorganisationen, darunter die ACLU und die NAACP, eine Erklärung unterzeichnet, in der sie gegen die Verwendung der Risikobewertung drängen. Gleichzeitig haben sich immer mehr Gerichtsbarkeiten und Staaten, einschließlich Kalifornien, an sie gewandt, um ihre überlasteten Gefängnisse und Gefängnisse zu reparieren.
Eine datengesteuerte Risikobewertung ist ein Weg, um Unterdrückungssysteme zu bereinigen und zu legitimieren, sagte Marbre Stahly-Butts, Executive Director von Law for Black Lives, auf der Bühne der Konferenz, die im MIT Media Lab stattfand. Dies ist eine Möglichkeit, die Aufmerksamkeit von den tatsächlichen Problemen abzulenken, die einkommensschwache Gemeinschaften und Minderheiten betreffen, wie z. B. defundierte Schulen und unzureichender Zugang zur Gesundheitsversorgung.
«Wir sind keine Risiken», sagte sie. «Wir sind Bedürfnisse.»