Automatisierte Ungerechtigkeit: Predictive Policing in Deutschland

von Sonja Peteranderl

Polizeien in Deutschland erforschen zunehmend Algorithmen zur „Prognose“ und „Prävention“ von Straftaten. Viele Systeme werden ohne ausreichende Rechtsgrundlage, Transparenz und Risikoabschätzung entwickelt, getestet oder genutzt – obwohl sie die Diskriminierung marginalisierter Menschen verstärken können. Der Trend verlagert sich dabei von orts- zu personenbezogenen sowie von theoriebasierten zu komplexeren algorithmischen Auswertungen.

Polizeien weltweit haben in den vergangenen Jahren Anwendungen eingeführt, die Verbrechen und andere Gefahren prognostizieren sollen: das sogenannte „Predictive Policing“. Auch in Deutschland wurde der Einsatz „vorausschauender“ orts- sowie personenbezogener Datenanalysen und Algorithmen ausgeweitet. Sie sollen bei der Entscheidungsfindung unterstützen, indem sie Risiken frühzeitig erkennen und es ermöglichen sollen, vorhandene Ressourcen auf Orte oder Personen zu konzentrieren, von denen vermeintlich ein besonders hohes Risiko ausgeht. Dies soll dabei helfen, Straftaten und andere Gefahren rechtzeitig durch präventive Maßnahmen zu verhindern.

Allerdings existiert bisher kein wissenschaftlicher Beleg für den Erfolg von „Predictive Policing“.[1] Entwicklung und Einsatz erfolgen häufig ohne ausreichende Transparenz, unabhängige wissenschaftliche Begleitung sowie Kontrollmechanismen – obwohl die Systeme erhebliche Risiken bergen. Ausgehend von empirischen Anwendungsbeispielen in Deutschland analysiert dieser Beitrag, wie orts- sowie personenbezogene „Prognose“-Systeme funktionieren und welche potenziell problema-tischen und diskriminierenden Auswirkungen sie bergen.[2] Zudem werden Empfehlungen für einen robusteren Rechtsrahmen und bessere Schutzmaßnahmen für algorithmische Polizeipraktiken in Deutschland diskutiert.

„Kognitive Gefahrenzonen”

Der Aufstieg (und Fall) von ortsbezogenen „Prognose“-Systemen zur Bekämpfung von Wohnungseinbrüchen in Deutschland spiegelt wider, wie fragmentiert digitale Innovation aufgrund der föderalen Struktur verläuft. Als in den 2010er Jahren Einbrüche in Medien und Politik als Sicherheitsproblem diskutiert wurden, führten mehrere Bundesländer diese Systeme ein, um die Wahrscheinlichkeit künftiger Kriminalität an bestimmten Orten zu kalkulieren. Bayern setzte 2014 als erstes Bundesland ortsbasiertes „Predictive Policing“ ein: die vom Oberhausener Institut für musterbasierte Prognosetechnik (IfmPt) entwickelte Software PRECOBS, die auf dem „near-repeat“-Ansatz basiert.[3] Brechen Serientäter*innen in eine Wohnung ein, ist der Annahme nach die Wahrscheinlichkeit erhöht, dass sie in der Umgebung in naher Zukunft erneut Taten mit ähnlichem Modus Operandi begehen. Die Software analysiert dazu Daten kürzlich begangener Einbrüche, darunter Zeit, Objekt, Lage, Diebesgut und andere Muster, die auf organisierte Täter*innen deuten. Die Wahrscheinlichkeit, mit denen in bestimmten Straßen in den kommenden Tagen Einbrüche auftreten könnten, wird per Farbcodierung auf digitalen Karten angezeigt. Beamt*innen prüfen anschließend die Warnungen des Systems.

Bis 2018 experimentierten sechs Bundesländer mit fünf verschiedenen Systemen.[4] Die Software bzw. Lizenzrechte wurden teils bei kommerziellen Anbietern erworben (z. B. PRECOBS), teils entwickelten Polizeien mit Technologiepartnern eigene Anwendungen. Nur drei sind noch im Einsatz: SKALA (Nordrhein-Westfalen), KrimPro (Berlin), KLB-operativ (Hessen). Dieses ortsbasierte „Predictive Policing“ etabliert soweit bekannt keine langfristigen geografischen „Brennpunkte“, an denen dauerhaft die Polizeipräsenz verstärkt wird. Die sich anschließenden Patrouillen erfolgen dynamisch, es entstehen laut Simon Egbert, Postdoktorand-Researcher an der Universität Bielefeld, „kognitive Gefahrenzonen“, in denen Racial Profing stattfinden kann. Fragwürdige „Vorhersagen“ können zu „präventiven“ Kontrollen oder Festnahmen an vermeintlichen Tatorten führen. Unterstützt durch Polizei-Narrative und Annahmen zu ausländischen Täter*innen werden dann insbesondere rassifizierte und marginalisierte Personen kontrolliert. Obwohl dafür keine Datenbasis vorlag, schrieben viele deutsche Polizeien die steigenden Wohnungseinbrüche zu Beginn ihrer Entwicklung von „Predictive Policing“ organisierten Banden aus Osteuropa zu – Menschen, die dem polizeilichen Bild eines osteuropäischen Bandenmitglieds entsprechen, könnten dann häufiger von Kontrollen betroffen gewesen sein.

Es gibt Simon Egbert zufolge bisher keinen wissenschaftlichen Nachweis für den Einfluss von „Predictive Policing“ auf eine sinkende Kriminalitätsrate. In Bayern wurde der PRECOBS-Vertrag 2021 nicht verlängert, da die Einbruchszahlen deutlich gefallen waren[5] – ebenso wie in Bundesländern ohne die Software.[6] Selbst wenn die Polizei in prognostizierten Gefahrenzonen verstärkt patrouilliere, sei die Wahrscheinlichkeit Egbert zufolge gering, dass sie genau in dem Moment auf Einbrecher*innen treffe. Je urbaner ein Gebiet sei, desto weniger Zeit und Personal bleibe zudem für Präventivstreifen.[7]

Personenbezogenes Profiling und „Prognosen“

Mittlerweile hat sich das Polizeiinteresse von ortsbasierten auf personenbezogene Risikobewertungssysteme und Datenanalysen verlagert, mit denen Informationen zu personenbezogenen Profilen verdichtet werden. Dabei steht die Einschätzung des künftigen Gewaltpotentials von sogenannten „Gefährdern“ im Fokus, d. h. „eine nicht näher spezifizierte Bedrohung, die sich in der Zukunft entwickeln könnte“ und wofür „die Indizien ausreichen können“.[8] Zwei von Bundeskriminalamt (BKA) und Landeskriminalämtern eingesetzte Systeme zur „Regelbasierten Analyse Potentiell Destruktiver Täter zur Einschätzung des Akuten Risikos“ (RADAR) sollen die künftige Gewaltbereitschaft von „Extremist*innen” einschätzen, um Ressourcen auf Personen mit hoher Risikoprognose zu priorisieren. RADAR-iTE betrifft seit 2017 aus Polizeisicht gewaltbereite Personen aus dem „islamistischen“ Spektrum[9] und wurde mehrfach überarbeitet, derzeit ist RADAR-iTE 3.0 im Einsatz. 2022 wurde RADAR-rechts für Personen aus dem rechtsextremen Spektrum eingeführt. Das Ende 2024 abgeschlossene Forschungsprojekt RADAR-Haft analysierte spezielle Schutz- und Risikofaktoren für den Haftkontext.[10] Ein RADAR-Verfahren beginnt mit der standardisierten Aufbereitung aller zu einer Person verfügbaren biografischen Informationen, die in der Regel aktenbasiert, ohne Kontakt zu Verdächtigen erfolgt. Mit einem Bewertungsbogen werden risikosteigernde und -senkende Faktoren erfasst und miteinander verrechnet, was Personen entweder der „moderaten“ oder „hohen“ Risikokategorie zuordnet. RADAR-iTE 3.0 umfasst 42 Risiko- und Schutzmerkmale, RADAR-rechts 38.[11]

Anschließende Maßnahmen werden dann in Fallkonferenzen diskutiert. Die Behörden sind sich bewusst, dass RADAR nur von begrenztem Nutzen ist und individuell von polizeilichen und fachlichen Einschätzungen begleitet werden muss. Problematisch ist bereits die Vorauswahl der Personen, auf die RADAR angewandt wird, sogenannte „Gefährder“ und „relevante Personen“. Dem BKA zufolge ist ein „Gefährder“ eine „Person, zu der bestimmte Tatsachen die Annahme rechtfertigen, dass sie politisch motivierte Straftaten von erheblicher Bedeutung begehen wird“.[12] Als „relevant“ gilt eine Person,

„wenn sie innerhalb des extremistischen/terroristischen Spektrums die Rolle einer Führungsperson, eines Unterstützers/Logistikers, eines Akteurs einnimmt und objektive Hinweise vorliegen, die die Prognose zulassen, dass sie politisch motivierte Straftaten von erheblicher Bedeutung … unterstützt, begeht oder sich daran beteiligt, oder es sich um eine Kontakt- oder Begleitperson eines Gefährders, eines Beschuldigten oder eines Verdächtigen einer politisch motivierten Straftat von erheblicher Bedeutung“ handelt.[13]

Diesen vagen Arbeitsbegriffen fehlt aber eine klare rechtliche Definition, wissenschaftliche Grundlage und einheitliche Anwendung; Wissenschaftler*innen und Expert*innen warnen vor hohem Diskriminierungspotenzial bei als muslimisch wahrgenommenen Verdächtigen.[14]

Sicherheitsbehörden haben die Bedrohung durch Rechtsextremismus lange vernachlässigt oder gar verharmlost, obwohl es seit Ende des Zweiten Weltkriegs immer wieder rechtsextreme Gewalttaten und Anschläge gab.[15] Erst seit wenigen Jahren liegt ein stärkerer Fokus auf Rechtsextremismus, begleitet von einer Aufstockung von Budget, Ressourcen und Ansätzen wie RADAR-rechts.[16] Im Vergleich zu „islamistischen“ Verdächtigen werden immer noch deutlich weniger Rechtsextremist*innen als „Gefährder“ bzw. „relevante Personen“ geführt und mit RADAR analysiert. Der Verfassungsschutz zählte 2024 ein „Islamismuspotenzial“ von 28.280 Personen, davon galten 9.540 als „gewaltbereit“.[17] 447 Personen aus dem „islamistischen“ Milieu sind als „Gefährder“ eingestuft, 487 Personen als „relevante Personen“; mit RADAR-iTE sind bisher ca. 850 Personen klassifiziert worden.[18] Das rechtsextremistische Personenpotenzial lag 2024 bei 50.250 Personen; davon galten 15.300 als „gewaltbereit“.[19] Doch nur 72 rechtsextreme Personen sind als „Gefährder“, 171 als „relevante Personen“ eingestuft; RADAR-rechts-Bewertungen liegen zu über 70 Personen vor.[20] Inwieweit RADAR selbst Elemente enthält, die Diskriminierung verstärken, ist unklar, da die vollständige Liste der vom System verwendeten Datenpunkte nicht bekannt ist. Islamophobie und Vorurteile gegenüber Muslimen können jedoch eine wesentliche Rolle bei der Einstufung als potenzielle „Terrorist*innen“ spielen, indem muslimfeindliche Vorurteile zu voreiligen Verdächtigungen sowie zu einer diskrimi-nierenden Anwendung von RADAR führen.[21] Insbesondere junge, muslimische Männer geraten Maximilian Ruf vom Violence Prevention Network zufolge schneller ins Visier der Behörden: „Bei rechtsradikal oder rechtsextrem auftretenden Jugendlichen kommt es deutlich eher zu der Einschätzung, es sei nur ein Jugendlicher, der Quatsch macht, sich in einer Abgrenzungs- oder Rebellionsphase befindet, als im Bereich muslimischer Religionspraxis.“[22]

„Big Data“-Analysen mit Palantir-Software

Der Trend verlagert sich inzwischen von theoriebasierten Ansätzen – wie dem PRECOBS zugrunde liegenden „near-repeat“-Ansatz – zu komplexeren algorithmischen Auswertungen, bei denen die Zusammenführung zahlreicher, diverser Informationen im Vordergrund steht.[23] Die Datengrundlage ist dabei problematisch, zumal einige Polizei-Datenbanken personenbezogene bzw. ethnische Bezüge aufweisen und gerade bei „ausländisch“ klingenden Namen beispielsweise beim algorithmenbasierten Abgleich oder durch Fehler bei Erfassungen Verwechslungen auftreten können.[24] Die durch den Föderalismus geprägte IT-Architektur der Polizeien ist dazu laut BKA „geprägt von Eigenentwicklungen, Speziallösungen, unterschiedlichen Dateiformaten und Datenerfassungsregeln“.[25] Daten müssten oft manuell und mehrfach bearbeitet werden, was die Fehlerwahrscheinlichkeit erhöhe. Mit dem Programm Polizei 20/20, das nach einstiger Planung 2020 abgeschlossen sein sollte, sollen Systeme und Prozesse nun bis 2030 zu einem einheitlichen Verbundsystem zusammengeführt werden. Mehr Polizeien sollen darüber künftig auch mehr Daten von anderen Datenbanken abrufen können.

CDU/CSU setzen sich seit Jahren dafür ein, Polizei-Software des umstrittenen US-Konzerns Palantir für Polizeien bundesweit verfügbar zu machen: „Bundes-VeRA“. Die deutschen Polizeien wären damit flächendeckend von einem US-Konzern abhängig, der enge Verbindungen zum US-Geheimdienst hat, dessen Gründer Peter Thiel offen die Trump-Regierung unterstützt, der hohe Lizenzkosten erhebt und etwa im Fall der New Yorker Polizei zum Vertragsende Anspruch auf die verarbeiteten Daten erhob.[26]

Dabei ist die Einführung von Palantir-Software in den Regierungen von Bund und Ländern umstritten. 2023 hatte das damals SPD-geführte Bundesinnenministerium den Vorstoß der bundesweiten Einführung gestoppt. Im März 2025 hatte der Bundesrat zwar eine gemeinsam genutzte automatisierte Datenanalyseplattform für die Länderpolizeien gefordert, mehrere Bundesländer sprachen sich aber gegen einen Einsatz von Palantir-Software aus.[27] Drei Bundesländer nutzen jedoch bereits auf Gotham-Software von Palantir aufbauende Systeme: Hessen (hessenDATA seit 2017 Test-, seit 2018 Echtbetrieb), Nordrhein-Westfalen (Datenbankübergreifende Recherche und Analyse, DAR) und Bayern (Verfahrensübergreifende Recherche- und Analyse, VeRA, seit 2022 Test-, seit 2025 Echtbetrieb). Dem von Bayern 2022 mit Palantir geschlossenen Rahmenvertrag können weitere Bundesländer und der Bund nun ohne weitere Ausschreibung beitreten. Er ist dem Bayerischen Innenministerium zufolge bis April 2027 gültig und kann bis zu vier Jahre verlängert werden.

In Bayern kam VeRA zwischen dem 1. Januar 2025 und dem 30. April 47 Mal zum Einsatz. Anstatt mühsam Einzelabfragen zu stellen, können Anfragen aus Polizeisicht nun durch die „automatisierte, parallele Recherche in mehreren Anwendungen und landesweit bereits nach wenigen Minuten umfassend beauskunftet werden.“[28] In Hessen wurde hessenDATA lange in erheblichem Umfang und auch bei gewaltfreien Straftaten wie Einbrüchen eingesetzt – also nicht nur wie anfangs erklärt bei schwerer oder organisierter Kriminalität oder Terrorismus. Auch wenn die deutschen Gotham-Versionen – anders als teils in den USA[29] – bisher keine KI-basierte „Prognose“-Funktionen etwa für künftige Straftaten oder Rückfallwahrscheinlichkeiten enthalten, können durch die Analyse von unterschiedlichen Datenquellen, Querverbindungen und Netzwerken nicht nur Vermutungen gegen Verdächtige erhärtet, sondern auch neue Verdachtsmomente generiert werden. Rechtsexpert*innen warnen davor, dass detaillierte Personenprofile entstehen, indem Palantir-Software verschiedene Datenbestände, die zu unterschiedlichen Zwecken erhoben wurden, zusammenführt. Bis zu einem Urteil des Bundesverfassungsgerichts griff Hessen dabei auch auf Daten von Personen zu, die nicht als Beteiligte an einer mutmaßlichen Straftat galten, etwa Zeug*innen. Nach einer Verfassungsbeschwerde der Gesellschaft für Freiheitsrechte (GFF) forderte das Bundesverfassungsgericht 2023 eine Begrenzung der Auswertungen; Hessen musste zudem das Polizeigesetz nachbessern, da die Regelung laut dem Urteil zu vage und verfassungswidrig war.[30] Die GFF reichte 2024 eine weitere Verfassungsbeschwerde gegen das veränderte Hessische Polizeigesetz ein, da es theoretisch weiterhin zulässt, Daten Unbeteiligter einzuspeisen, mit dem Risiko falscher Verdächtigungen[31] – „währenddessen haben Betroffene keine Möglichkeit sich gegen die massiven Grundrechtseingriffe zu wehren, da sie nichts davon mitbekommen. Oft trifft dies ohnehin diskriminierte Gruppen, die in polizeilichen Datenbanken überrepräsentiert sind.“[32] Auch gegen die nordrheinwestfälische Rechtsgrundlage für den DAR-Einsatz ist eine Verfassungsbeschwerde anhängig.[33]

Intransparenz und falsche Verdächtigungen

Bei der Einführung neuer datengestützter Profiling- sowie „Prognose“-Systeme in Deutschland werden die Details, wie Datenquellen und Funktionsweise, in der Regel erst nach und nach, manchmal mit jahrelanger Verzögerung bekannt, etwa durch parlamentarische Anfragen, investigativen Journalismus, durch Klagen oder im Fall der Palantir-Software hessenDATA durch einen Untersuchungsausschuss. In einigen Fällen werden Erprobung, Einführung und Weiterentwicklung neuer Systeme durch wissenschaftliche Partnereinrichtungen begleitet, in anderen fehlt eine angemessene wissenschaftliche Begleitung. Zudem werden die Inputs und die Funktionsweise der Algorithmen in der Regel nicht öffentlich gemacht, so dass keine externe, unabhängige wissenschaftliche Prüfung der Systeme stattfinden kann. Journalistische Anfragen nach dem Informationsfreiheitsgesetz werden in den meisten Fällen mit Verweis auf Sicherheitsbedenken abgelehnt. Diese vielfältigen Herausforderungen erschweren es, ein umfassendes Verständnis der Systeme, ihrer Datenquellen, Algorithmen, ihren Auswirkungen und möglichen diskriminierenden Effekten zu gewinnen.

Die Expansion von Systemen wie dem Risikobewertungstool RADAR oder von Palantir-Software verdeutlicht, wie die zunehmende horizontale und vertikale Integration automatisierter Datenanalysesysteme in Deutschland über „Prognosen“, Profibildung und weitere Analysen Einzelpersonen, Gruppen und Gebiete kriminalisieren und diskriminieren kann. Die algorithmischen Systeme können dabei zu schwerwiegenden Ungenauigkeiten oder falsch-positiven Ergebnissen führen und damit möglicherweise Unschuldige belasten. Sie werden ohne solide wissenschaftliche Validierung oder Beweise für ihre Wirksamkeit genutzt und arbeiten häufig ohne ausreichende Rechtsgrundlage, wobei einige Systeme sogar rechtswidrig eingesetzt wurden.

Empfehlungen

„Prognose“-Systeme können die Diskriminierung marginalisierter Menschen aufgrund von Faktoren wie ethnischer Herkunft, sozioökonomischer Status, Migrationsstatus oder Nationalität fortsetzen und verstärken, was zu ungerechten und diskriminierenden Folgen wie Überwachung, Kontrollen, Durchsuchungen, Verhaftungen, Strafverfolgung, Festnahme oder Abschiebung führen kann. Das EU-Gesetz über Künstliche Intelligenz (KI) sieht dazu einige Verbote vor, zum Beispiel für bestimmte personenbezogene KI-Systeme im Bereich „vorausschauender“ Polizeiarbeit. Ein umfassenderes Verbot solcher Systeme ist jedoch erforderlich. Menschen, die aufgrund von algorithmischen Systemen polizeilichen Maßnahmen unterworfen werden, sind sich deren Existenz oder Funktionsweise in der Regel nicht bewusst. Das KI-Gesetz der EU führt bestimmte Transparenzverpflichtungen für Betreiber*innen von Hochrisikosystemen ein, diese decken jedoch nicht alle schädlichen und diskriminierenden Verwendungszwecke ab und bieten auch keine vollständige und einklagbare öffentliche Transparenz.

Die Verwendung automatisierter Entscheidungsfindungssysteme durch Polizei- oder Strafjustizbehörden muss transparent gemacht werden, damit die Betroffenen ihre Rechte wahrnehmen und automatisierte Vorhersagen, Profiling oder die daraus resultierenden Konsequenzen anfechten können, etwa durch ein Algorithmus-Transparenzregister.[34] Wenn ein System für nationale Sicherheitszwecke eingestuft ist, müssen zuständige Aufsichtsorgane vollen und uneingeschränkten Zugang haben, um den Mangel an öffentlicher Transparenz auszugleichen. Automatisierte Systeme, die von öffentlichen Stellen wie der Polizei und Strafverfolgungsbehörden eingesetzt werden, dürfen keinen rechtlichen Beschränkungen wie dem Schutz des geistigen Eigentums (Urheberrechte) oder Geschäftsgeheimnissen unterliegen, die die Veröffentlichung relevanter Details zu ihrer Entwicklung, ihrem Einsatz, dem Betrieb und der vollständigen Analyse ihrer Ergebnisse beschränken.

[1]     Interview Egbert, S.: „The Future of Prediction“, Universität Bielefeld v. 4.10.2023; Knobloch, T.: Vor die Lage kommen: „Predictive Policing“ in Deutschland, Stiftung Neue Verantwortung, 29.8.2018, www.stiftung-nv.de/sites/default/files/predictive.policing.pdf.
[2]     Ausführlich siehe AlgorithmWatch: Automating Injustice: „Predictive“ policing and criminal „prediction“ and profiling systems used by law enforcement and criminal justice authorities in Germany, März 2025, https://algorithmwatch.org/en/wp-content/uploads/2025/03/AlgorithmWatch_Report-Predictive-Policing.pdf.
[3]     Peteranderl, S.: Einst Stoff für Hollywood, jetzt Realität: Die Polizei ermittelt mit Algorithmen, Wired v. 28.6.2016.
[4]     Knobloch a.a.O. (Fn. 1).
[5]     Bayerisches Landeskriminalamt: E-Mail v. 6.3.2023.
[6]     Interview Egbert a.a.O. (Fn. 1).
[7]     Ebd.
[8]     Bundeszentrale für politische Bildung: Gefährder, www.bpb.de/themen/migration-integration/kurzdossiers/migration-und-sicherheit/302982/gefaehrder.
[9]     Die Begriffe „Terrorist“/ “Terrorismus“, „Islamist“, „Extremist“/ „Extremismus“ und „Radikalisierung“ sind unzureichend definiert, ungenau und leicht zu missbrauchen. Sie tauschen regelmäßig in Gesetzen, Politik, Regierungserklärungen und Wissenschaft auf. Nur deshalb werden sie hier verwendet, ihre Definition nicht befürwortet. Vgl. Amnesty UK: This Is The Thought Police: The Prevent duty and its chilling effect on human rights, November 2023, www.amnesty.org.uk/files/2023-11/Amnesty%20UK%20Prevent%20report%20%281%29.pdf.
[10]    Kriminologische Zentralstelle: Weiterentwicklung der Risikobewertungsinstrumente RADAR-iTE und RADAR-rechts für den Haftkontext, www.krimz.de/forschung/pmk/radar-haft.html.
[11]    Bundeskriminalamt: E-Mail v. 18.6.2025.
[12]    Bundeskriminalamt: Politisch motivierte Kriminalität, www.bka.de/DE/UnsereAufgaben/Deliktsbereiche/PMK/pmk_node.html#doc56976bodyText1.
[13]    Ebd.
[14]    Hanschmann, F.: „Gefährder“ – eine neue alte Figur im Öffentlichen Recht, in: Kritische Justiz 2017, H. 4, S. 434-447.
[15]    Staat auf rechtem Auge blind, www.mdr.de/geschichte/zeitgeschichte-gegenwart/politik-gesellschaft/terror-von-rechts-deutschland-anschlag-halle-100.html v. 5.8.2022.
[16]    BT-Drs. 19/15214 v. 19.12.2019.
[17]    Bundesamt für Verfassungsschutz: Islamismus und islamistischer Terrorismus, www.verfassungsschutz.de/DE/themen/islamismus-und-islamistischer-terrorismus/zahlen-und-fakten/zahlen-und-fakten_node.html.
[18]    Bundeskriminalamt: E-Mail v. 18.6.2025.
[19]    Bundesamt für Verfassungsschutz: Rechtsextremismus. Zahlen und Fakten, 2024, www.verfassungsschutz.de/DE/themen/rechtsextremismus/zahlen-und-fakten/zahlen-und-fakten_node.html#doc679030bodyText2.
[20]    Bundeskriminalamt: E-Mail v. 18.6.2025.
[21]    Einheitlich, aber folgenlos?, www.lto.de/recht/hintergruende/h/einstufung-gefaehrder-begriff-konsequenzen-definition-bestimmtheit v. 11.5.2017.
[22]    Interview Maximilian Ruf, Leitung Fachbereich Wissenschaft Violence Prevention Network v. 6.10.2023.
[23]    Egbert, S., Krasmann, S.: Predictive Policing. Eine ethnographische Studie neuer Technologien zur Vorhersage von Straftaten und ihre Folgen für die polizeiliche Praxis, Universität Hamburg, 30.4.2019, www.wiso.uni-hamburg.de/fachbereich-sowi/ueber-den-fachbereich/fachgebiete/fachgebiet-kriminologische-sozialforschung/predictive-policing/egbert-krasmann-2019-predictive-policing-projektabschlussbericht.pdf.
[24]    Police IT: Abfrage von Polizeidatenbanken -3: Suchoptionen und Protokollierung, 7.8.2020, https://police-it.net/https-police-it-net-abfrage-von-polizeidatenbanken-suchoptionen-protokollierung.
[25]    Bundesministerium des Inneren: P20, Polizei 20/20, Juli 2023, www.bmi.bund.de/SharedDocs/downloads/EN/publikationen/2023/BMI23018.pdf.
[26]    Brennan Center for Justice: Palantir Contract Dispute Exposes NYPD’s Lack of Transparency, 20.7.2027, www.brennancenter.org.
[27]    Mehrere Bundesländer gegen Einsatz von Palantir, www.tagesschau.de/investigativ/br-recherche/palantir-polizei-behoerden-analysesoftware-100.html v. 14.4.2025.
[28]    Bayerisches Landeskriminalamt: E-Mail v. 12.6.2025.
[29]    Palantir has secretly been using New Orleans to test its predictive policing technology, www.theverge.com v. 27.02.2018.
[30]    Bundesverfassungsgericht: Regelungen in Hessen und Hamburg zur automatisierten Datenanalyse für die vorbeugende Bekämpfung von Straftaten sind verfassungswidrig, 16.02.2023, www.bundesverfassungsgericht.de.
[31]    Hessen reizt Big Data Analyse aus, https://freiheitsrechte.org/themen/freiheit-im-digitalen/hessen-big-data-analyse.
[32]    Ebd.
[33]    Widerstand gegen US-Polizeisoftware Palantir, www1.wdr.de/nachrichten/landespolitik/palantir-polizei-software-kritik-100.html v. 17.4.2025.
[34]    AlgorithmWatch: Ein verbindliches KI-Transparenzregister für Deutschland, https://algorithmwatch.org/de/ki-transparenzregister-dtl.

2 Gedanken zu „Automatisierte Ungerechtigkeit: Predictive Policing in Deutschland“

    1. Die Arbeiten an PreMap wurden zum 08.10.2021 mit der Begründung eingestellt, „dass durch andere Vorhersagemethoden und externe Daten grundsätzlich geringfügige Verbesserungen in der Prognosegüte erzielt werden konnten, dass diese aber vor dem Hintergrund von Aufwands-Ertrags-Schätzungen und dem weiterhin bestehenden Problem auf der Reaktionsseite nicht für eine Umsetzung vorgeschlagen werden konnten“ und das Projekt abgeschlossen. Quelle: https://www.lka.polizei-nds.de/startseite/kriminalitaet/forschung/premap/predictive-policing-in-niedersachsen-das-projekt-premap-114083.html . Herzliche Grüße

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert