Das britische Justizministerium arbeitet an einem umstrittenen Projekt, das mithilfe von Algorithmen Personen identifizieren soll, die mit hoher Wahrscheinlichkeit schwere Gewalttaten begehen könnten. Ursprünglich als „Homicide Prediction Project“ bekannt, wurde es inzwischen in „Sharing Data to Improve Risk Assessment“ umbenannt. Offiziell befindet sich das Vorhaben noch in der Forschungsphase.
Laut einem Bericht des Guardian basiert das System auf der Analyse von Daten aus Polizei- und Justizakten, darunter Informationen zu Vorstrafen, Demografie sowie Gesundheitsdaten wie Suchtverhalten, Suizidrisiko und Behinderungen. Kritiker befürchten, dass auch sensible Daten von Personen ohne strafrechtliche Verurteilung einbezogen werden, etwa von Opfern häuslicher Gewalt oder Menschen mit psychischen Erkrankungen. Das Ministerium bestreitet dies und betont, dass ausschließlich Daten verurteilter Straftäter verwendet würden.
Die Bürgerrechtsorganisation Statewatch, die das Projekt durch Anfragen nach dem Informationsfreiheitsgesetz aufdeckte, warnt vor einer „chilling and dystopian“ Entwicklung. Sie kritisiert, dass solche Systeme bestehende Diskriminierungen verstärken könnten, insbesondere gegenüber ethnischen Minderheiten und sozial benachteiligten Gruppen. Auch Amnesty International äußerte sich besorgt über den Einsatz prädiktiver Polizeiarbeit in Großbritannien und bezeichnete diese als rassistisch und armutsfeindlich.
Der Einsatz von Algorithmen zur Vorhersage kriminellen Verhaltens erinnert an das Konzept des „Pre-Crime“, das durch den Film „Minority Report“ bekannt wurde. In der Realität könnten solche Systeme jedoch zu einer Vorverurteilung führen und Grundrechte verletzen. Bereits in der Vergangenheit gab es in Großbritannien Kritik an der Nutzung von Gesichtserkennungstechnologie durch die Polizei, die ohne klare gesetzliche Grundlage erfolgt und potenziell diskriminierend ist.
Obwohl das Justizministerium betont, dass das Projekt lediglich Forschungszwecken dient, bleibt unklar, wie die gewonnenen Erkenntnisse künftig eingesetzt werden sollen. Die Gefahr besteht, dass solche Technologien schrittweise in den regulären Polizeialltag integriert werden und dabei die Grenzen zwischen Forschung und praktischer Anwendung verschwimmen.
In einer Zeit, in der der Ruf nach mehr Sicherheit lauter wird, stellt sich die Frage, wie viel Freiheit und Privatsphäre die Gesellschaft bereit ist, für vermeintliche Sicherheit aufzugeben. Der Einsatz prädiktiver Systeme könnte ein gefährlicher Schritt in Richtung eines Überwachungsstaates sein, in dem Menschen nicht für ihre Taten, sondern für ihre potenziellen Absichten verurteilt werden.
Kommentare
4 Antworten zu „Großbritannien entwickelt „Mord-Vorhersage“-System: Der nächste Schritt in den Überwachungsstaat?“
Dieses kann eigentlich nur Unserer Sicherheit dienen. Wenn “ Mann “ bereits schon einmal Jemanden erstochen hat, würde ich davon ausgehen, dass der “ Mann “ es wieder tun wird ! Richtig ? Das ist kein Hexenwerk, es muss nur richtig verstanden werden ! Und Serien-Stecher und Zwanghafte werden da viieel schneller gefunden.
„Der Einsatz prädiktiver Systeme könnte ein gefährlicher Schritt in Richtung eines Überwachungsstaates sein, in dem Menschen nicht für ihre Taten, sondern für ihre potenziellen Absichten verurteilt werden.“
So geht’s auch: „Der Einsatz der Wettervorhersage könnte ein prophetischer Schritt in Richtung eines Prima-Klima-Staates sein, in dem die Wolken nicht für ihre Bewölkung, sondern für ihre potenziellen Unwetterabsichten geimpft werden.“
Das ist moralisch bedenklich. Denn man kann das System nicht testen. Weil man ja nicht mal 100te Morde geschehen lassen kann. Also muss man das ungetestet mit den Fehlern der Programmierer anwenden.
Anders wäre das, wenn man mit solchen Systemen erst mal herausfinden würde, wer besonders prädestiniert ist andere zu betrügen (z.B. auch Wahlbetrug), im Milliarden Stil Steuern zu hinterziehen, korrupt Gelder zu veruntreuen und der Gesellschaft großen materiellen Schaden zu zufügen.
HIer könnte man das System testen, weil man auch hinterher noch eingreifen kann. Bei Tod oder schwersten körperlichen Schäden kann man leider nachher nichts mehr tun.
Würde aber Betrug erst mal im Mittelpunkt stehen, dann würde meiner Meinung nach rauskommen, dass v.a. Menschen die sich ganz vorne in der Politik betätigen die Täter sind.
Das ist moralisch bedenklich. Denn man kann das System nicht testen. Weil man ja nicht mal 100te Morde geschehen lassen kann. Also muss man das ungetestet mit den Fehlern der Programmierer anwenden.
Anders wäre das, wenn man mit solchen Systemen erst mal herausfinden würde, wer besonders prädestiniert ist andere zu betrügen (z.B. auch Wahlbetrug), im Milliarden Stil Steuern zu hinterziehen, korrupt Gelder zu veruntreuen und der Gesellschaft großen materiellen Schaden zu zufügen.
HIer könnte man das System testen, weil man auch hinterher noch eingreifen kann. Bei Tod oder schwersten körperlichen Schäden kann man leider nachher nichts mehr tun.
Würde aber Betrug erst mal im Mittelpunkt stehen, dann würde meiner Meinung nach rauskommen, dass v.a. Menschen die sich ganz vorne in der Politik betätigen die Täter sind.