Bundes­verfassungsgericht: Predictive Policing nur in Ausnahmen gestattet

Andreas Frischholz
29 Kommentare
Bundes­verfassungsgericht: Predictive Policing nur in Ausnahmen gestattet
Bild: John McStravick | CC BY 2.0

Der Einsatz von Data-Mining und automatisierter Datenanalyse-Software wie der von Palantir ist für Polizeibehörden in Deutschland nicht ohne weiteres möglich. Das hat das Bundesverfassungsgericht heute entschieden.

Das Urteil des Bundesverfassungsgerichts befasst sich mit Gesetzen in Hessen und Hamburg, die weitgehend gleich sind. Beide erlauben Polizeibehörden, Software-Lösungen einzusetzen, die automatisierte Datenanalysen ermöglichen. Entsprechende Daten stammen aus bis dato nicht verbundenen Datenquellen. Diese werden durch die Software vernetzt und lassen sich dann systematisch durchsuchen.

Das Ziel solcher Verfahren ist unter anderem Predictive Policing – es wird also versucht, anhand bestehender Fälle die Wahrscheinlichkeit von Straftaten zu prognostizieren. So ein Vorgehen ist äußerst umstritten. Eine entsprechende Software-Lösung läuft in Hessen seit dem Jahr 2017 unter dem Namen „Hessendata“. Diese basiert aber auf dem Gotham-Programm von dem Big-Data-Unternehmen Palantir, das vor allem als Zulieferer für amerikanische Geheimdienste wie die NSA bekannt ist.

Gesetze sind zu vage

Sowohl in Hessen als auch in Hamburg sind die Gesetze verfassungswidrig. Komplett untersagt wurde die automatisierte Datenanalyse zur vorbeugenden Bekämpfung bestimmter Straftaten aber nicht, nur müssen die Eingriffsschwellen hoch genug sein. Konkret heißt es in der Mitteilung des Bundesverfassungsgerichts:

Werden gespeicherte Datenbestände mittels einer automatisierten Anwendung zur Datenanalyse oder -auswertung verarbeitet, greift dies in die informationelle Selbstbestimmung aller ein, deren Daten bei diesem Vorgang personenbezogen Verwendung finden. Ein Grundrechtseingriff liegt hier nicht nur in der weiteren Verwendung vormals getrennter Daten, sondern darüber hinaus in der Erlangung besonders grundrechtsrelevanten neuen Wissens, das durch die automatisierte Datenauswertung oder -analyse geschaffen werden kann.

Wenn Polizeibehörden solche Instrumente einsetzen wollen, muss in den Gesetzen geregelt werden, zu welchem Zweck bestehende Daten und die Erkenntnisse aus der Analyse verwendet werden dürfen. Verallgemeinern lässt sich das nicht. Je breiter und tiefer die Erkenntnisse über Personen gehen, die von Analysen betroffen sind, desto höher sind die verfassungsrechtlichen Anforderungen, so das Bundesverfassungsgericht.

Beschwerdeführer sind zufrieden

An beiden Verfassungsbeschwerden war die Gesellschaft für Freiheitsrechte (GFF) beteiligt, die mit den Urteilen zufrieden ist. Diese würden den Klagen in weiten Teilen stattgeben. So erklärt Bijan Moini von der GGF: „Das Bundesverfassungsgericht hat heute der Polizei den ungehinderten Blick in die Glaskugel untersagt und strenge Vorgaben für den Einsatz von intelligenter Software in der Polizeiarbeit formuliert.“ Das sei von Bedeutung, da „die Automatisierung von Polizeiarbeit gerade erst begonnen hat“.

Mit dem Urteil sei nun aber klar, dass konkrete Vorgaben erforderlich sind. Es dürfe nicht wie in Hessen und Hamburg völlig unklar sein, aus „welchen Quellen, mit welcher Datenmenge und zu welchem Zweck die Polizei die Befugnis zum Data Mining nutzen darf“.

Eines der Probleme bei dem Einsatz von Software wie der von Palantir bleibt die Geheimhaltung. Wie Netzpolitik.org meldet, sind weder technische Details noch die Verträge mit dem US-Unternehmen öffentlich. Es lässt sich also kaum nachvollziehen, wie umfassend die Datenanalysen ausfallen. Im Laufe des Verfahrens wurde zwar die polizeiliche Sicht auf die Software beschrieben, näher beleuchtet wurde die Software laut Netzpolitik.org aber nicht.