Ein Polizeiauto parkt vor der Haustür eines Mehrfamilienhauses, der Beamte steigt aus und steht unschlüssig auf der Straße. Etwas ratlos schaut er über den Gartenzaun, schiebt einen Busch beiseite, lugt dahinter, reckt seinen Hals, um über den Fahrradschuppen sehen zu können. "Was machst du da?", fragen ihn Kinder, die auf der Straße spielen. "Ein Computerprogramm hat vorhergesagt, dass hier in der Nähe bald eingebrochen werden könnte", sagt der Beamte und zuckt mit den Schultern. "Natürlich nicht genau in Ihrem Haus", ergänzt er schnell, als er die erschrockenen Blicke der umstehenden Mütter sieht. Mit 70-prozentiger Wahrscheinlichkeit würden die Einbrecher aber in den nächsten Tagen in diesem Wohnviertel zuschlagen. Da zucken auch die Mütter mit den Schultern: Dass hier viel eingebrochen wird, das wussten sie schon. Wozu braucht man da einen Computer?

Szenen wie diese kürzlich in Stuttgart beobachtete dürften sich derzeit gehäuft in deutschen Wohngebieten abspielen. In verschiedenen Bundesländern, unter anderem Baden-Württemberg und Bayern, gibt es Pilotversuche mit Predictive Policing, Polizeiarbeit mit Hilfe von Computervorhersagen. Andere Bundesländer wie Brandenburg prüfen den Einsatz gerade. Der Computer soll dabei die Erfahrung langjähriger Polizisten erweitern, die in ihrer Laufbahn ein "Bauchgefühl" dafür entwickeln, wo oft zugeschlagen wird. Die meisten Bundesländer nutzen die deutsche Software Precobs, die ein Familienunternehmen in Oberhausen entwickelt hat: das Institut für musterbasierte Prognosetechnik IfmPt. Diese basiert auf der Annahme, dass professionelle Täter nach bestimmten Mustern vorgehen. Sie handeln planvoll, bevorzugen Gebiete, in denen sie nicht auffallen und die gute Fluchtmöglichkeiten bieten. Und sie haben es auf ganz bestimmte Beute abgesehen – sie kommen wieder, wenn sie erfolgreich waren. "Near repeat" heißt diese Rückkehr zu einem erfolgreichen Tatort in der Fachsprache. Und die Folgedelikte versuchen Programmierer mit dem Computer vorherzusagen. Ist der sich zu 70 oder 80 Prozent sicher, schlägt er Alarm. Die zuständigen Behörden entscheiden dann, ob sie eine Streife vorbeischicken.

Kurzer Gebrauch, wenig Daten

Medien berichten allerdings immer wieder von Fällen, in denen eine solche Software angeschlagen hat, Polizisten vor Ort verstärkt Streife fuhren – und dann trotzdem eingebrochen wurde. Das mögen Einzelfälle sein, doch die Frage, ob die Einbrüche durch solche Maßnahmen generell zurückgehen, lässt sich kaum seriös beurteilen. Auch wenn die Anbieter entsprechender Programme mit beeindruckenden Zahlen werben, fehlt dafür die Datengrundlage. Noch sind die Systeme viel zu kurz in Gebrauch. Um die Qualität der Vorhersagen zu testen, blickt man zurück. Die Anbieter lassen ihre Software über Daten der Vergangenheit laufen und schauen so, wie viele der tatsächlich erfolgten Einbrüche sie vorhergesagt hätten. Das sagt aber nichts über die Gegenwart aus. Immer wieder hört man von Gebieten, in denen Einbrüche rückläufig seien – im Jahr darauf steigen sie dann wieder an. "Das ist das Absurde an der ganzen Geschichte", sagt Michael Schweer vom IfmPt, "das Nichteintreten des Folgedelikts ist unser Erfolg, lässt sich aber durch das Nichteintreten nicht nachweisen." Dennoch ist Schweer überzeugt, dass Precobs funktioniert: "Wir sind jetzt an sieben Standorten, und an allen liegen die Einbrüche signifikant unter den Vergleichswerten. Es wäre doch komisch zu sagen: Das hat nichts mit dem System zu tun."

Eine Momentaufnahme liefert der Bericht des Analysechefs der Züricher Polizei Dominik Balogh im Magazin "Kriminalistik" (5/2016). Im Winterhalbjahr 2013/14, in dem Precobs erstmals dort eingesetzt wurde, habe es 146 Alarme gegeben, von denen die zuständige Polizeileitung 92 verfolgte. "In 87,3 Prozent der Fälle kam es zu mindestens einem Folgedelikt innerhalb von 144 Stunden und 400 Metern Radius." In jenem Winter sei die Einbruchsstatistik prompt auf ein Fünfjahrestief gesunken. "Ob und in welchem Umfang das Programm tatsächlich zu diesem Resultat beigetragen hat, ist nicht hieb- und stichfest zu beweisen", gibt Balogh allerdings zu.

"Die Amerikaner berichten von 25 bis 30 Prozent Kriminalitätsrückgang – aber wenn man nachfragt, gibt es keine wissenschaftlich belastbaren Erkenntnisse"
(Dieter Schürmann)

Dass es so wenige evaluierte Ergebnisse von Predictive Policing gibt, wundert den nordrhein-westfälischen Landeskriminaldirektor Dieter Schürmann: "Die Idee ist ja nicht neu." In den USA werde schon länger mit entsprechenden Mustererkennungsalgorithmen gearbeitet. "Die Amerikaner berichten von 25 bis 30 Prozent rückgängiger Kriminalität – aber wenn man genauer nachfragt, gibt es keine wissenschaftlich belastbaren Erkenntnisse." Seine Behörde hat ein eigenes System namens Skala (System zur Kriminalitätsanalyse und Lageantizipation) entwickelt. Idealerweise solle dieses System nicht nur Einbrüche vorhersagen. "Wir haben Algorithmen aus unseren Erfahrungen formuliert", erklärt er. Dabei werde das Landeskriminalamt NRW auch von Wissenschaftlern unterstützt, die in anderen Zusammenhängen mit der Analyse von Massendaten Erfahrungen gesammelt haben. "Menschliches Handeln wird von einer Vielzahl komplexer Muster bestimmt", sagt er. Das Zurückkehren zum Ort erfolgreicher Taten sei dabei nur ein Aspekt. Der Ansatz von Precobs geht ihm daher nicht weit genug. "Wenn ich zumindest von 50 Prozent reisender Straftäter ausgehe, werden sich "near repeats" möglicherweise schnell verlaufen." Allerdings gibt er zu, nicht genau zu wissen, wie die Oberhausener arbeiten: "Deren System ist geschlossen, sie lassen sich die Daten anliefern. Für uns ist das eine Blackbox."

Schürmanns Kollegen experimentieren derzeit mit verschiedenen Daten unter anderem aus der Konsumforschung: Wo wohnen Pendler? Die polizeiliche Intuition sagt ihm, dass dort öfter eingebrochen werden müsste. Allerdings erleben die Polizisten immer wieder Überraschungen: "Wir denken, bestimmte Daten müssten Treiber sein, das sind sie dann aber nicht." Genaueres möchte er derzeit nicht verraten, da die Evaluierung noch läuft. Und auch die erfolgreichen Vorhersagen scheinen nicht immer zur polizeilichen Intuition zu passen: "Manchmal ertappen wir jemanden auf frischer Tat, und die Beamten sagen hinterher: Das hätte mir mein Bauchgefühl nicht gesagt, da wäre ich nicht hingefahren." Revolutioniert der Computer die Polizeiarbeit? "Ich schwimme nicht auf einer Erfolgswelle", sagt Schürmann, obgleich er optimistisch sei. Die Polizeiarbeit werde wohl verbessert: In Duisburg und Köln – die beiden Städte, die für die Evaluierung verglichen werden – habe es in der Tat erheblich weniger Einbrüche gegeben, in Köln mehr als 20 Prozent weniger. "Das kann aber auch Zufall sein. Wer kann das zweifelsfrei belegen?"

Als Schürmann öffentlich überlegte, dass Echtzeithandydaten ein guter Prädiktor für reisende Täter sein könnten, "haben alle gleich den Orwell aus der Tasche gezogen"

Schürmann überlegt derzeit, welche Daten noch interessant wären für die Verbrechensvorhersage. Aber er ist mit entsprechenden Aussagen vorsichtig geworden: "Die Medien kommen dann immer gleich mit dem Minority-Report", klagt er. Dabei gehe es ja nicht darum, das Verhalten einzelner Menschen vorherzusagen oder diese gar auf Grund eines reinen Verdachts festzunehmen. "Was ist denn so kritisch daran, wenn sich die Polizei in einer digitalisierten Gesellschaft solcher Instrumente bedient?" Zudem sorge der deutsche Datenschutz schon dafür, dass keine kritischen Verhältnisse eintreten. Aber als er vor einiger Zeit öffentlich überlegte, dass die Echtzeitdaten der Herkunft von GSM-Karten in Handys ein guter Prädiktor für die Straftaten reisender Täter sein können – "da haben alle gleich den Orwell aus der Tasche gezogen". Um "vor die Lage" zu kommen, wie es im Polizeideutsch heißt, also dem Kriminellen einen Schritt voraus zu sein, wäre Echtzeitdaten gut, mutmaßt Schürmann: "Rechtlich unbedenklich könnte man für einen Bezirk den aktuellen Wasserverbrauch und den Stromverbrauch anzeigen lassen." Das würde wiederum darauf verweisen, wo gerade wenige zu Hause sind. Kriminelle finden das durch Beobachtung heraus – "aber wir können ja nicht vor jeder Haustür stehen".

Der LKA-Chef nimmt Kritiker durchaus ernst: "Manche sagen, wir sollten das Risiko, Opfer einer Straftat zu werden, in Kauf nehmen, um nicht Opfer einer Datenkrake zu werden. Solche Aussagen darf man nicht auf die leichte Schulter nehmen."

Strenger Datenschutz in Deutschland

Aber das scheint vor allem eine deutsche Sorge zu sein, wie Hans Faller* (Name geändert), Berater bei einem Technikdienstleister, bestätigt: "Die deutschen Regelungen sind da eher streng, da haben alle Angst vor dem foucaultschen Panoptikum." Er arbeitet vor allem in Projekten im Ausland. "Engländer und Amerikaner sind da lockerer." In einem Pilotprojekt in einer europäischen Großstadt hat er geholfen, die zentralen Täter aus 3000 Gangmitgliedern, die dort für 40 Prozent aller Straftaten verantwortlich sind, zu identifizieren. "Mit unserem Ansatz wurden so 300 Tophochrisiko-Individuen identifiziert, die in den nächsten zwei Wochen Straftaten verüben würden." Eine Analyse anhand historischer Daten zeigte: Die Polizei hatte einige übersehen. Sechs Personen, die der Computer aus diesen 300 identifiziert hatte, standen nicht unter polizeilicher Überwachung. Fünf von ihnen wurden wirklich straffällig.

In das System flossen nur polizeiliche Vorgangsdaten ein. "Der nächste Ausbauschritt wären soziale Netzwerke", sagt Faller. Daraus könne man unter anderem Verbindungen zwischen Personen ableiten und sehen, welche davon sich gerade radikalisierten. "Dann wäre Predictive Policing auch für den Terrorismus interessant." So ganz versteht er die deutsche Sorge nicht. "Unternehmen machen schon seit Jahren massiv 'predictive analytics'." Die wenigsten Menschen sorgten sich davor, was Facebook alles über sie wisse, um passgenaue Werbung anzubieten. "Technologisch gibt es keine Grenzen", sagt Faller, "die Grenzen sind gesellschaftlicher Natur: Was will man für mehr Sicherheit zulassen?"

Kritiker warnen allerdings davor, persönliche Daten in solche Algorithmen einfließen zu lassen oder gar Täterprofile zu erstellen. Wie schnell die musterbasierte Verdachtserhebung nach hinten losgehen kann, zeigen aktuelle Vorfälle in den USA. Dort berechnet man mit dem Computer die Wahrscheinlichkeit, nach der ein Straftäter rückfällig wird. Das Ergebnis kann sich auf dessen Haftzeit auswirken. Eine große Recherche des investigativen Journalistenbüros Propublica ergab kürzlich, dass der dahinterliegende Algorithmus Schwarze systematisch benachteiligt. Ein Fehler im System? Die Verantwortlichen blieben in der Folge erschreckend sprachlos – offenbar hatte das selbstlernende System eigene Schlüsse gezogen, die nun kaum zu überprüfen sind. Ein Problem übrigens, vor dem Forscher immer wieder gewarnt hatten. Und deshalb fordern manche, Algorithmen keine Entscheidungen über Menschen treffen zu lassen, anhand derer diese Nachteile erleiden könnten.

"Das IfmPt testet, ob Informationen über den Ausländeranteil eines Wohnviertels Precobs noch verbessern"

Vor diesem Hintergrund erscheint es bedenklich, dass das IfmPt in Baden-Württemberg erstmals testet, ob Informationen über den Ausländeranteil eines Wohnviertels Precobs noch verbessern. "Wir geben sozioökonomische Daten hinzu", sagt Precobs-Mitgründer Michael Schweer: Informationen über gut betuchte Wohngegenden oder eben Bezirke mit vielen Ausländern. Er beteuert, dass eine Diskriminierung Einzelner oder von Gruppen durch sein System ausgeschlossen ist. "Wir verwenden keine personenbezogenen Daten." Auch Datenschützer geben Entwarnung: "Das Analysesystem ist in der aktuellen Ausgestaltung datenschutzrechtlich nicht zu beanstanden", so der bayerische Landesbeauftragte für den Datenschutz Thomas Petri nach seiner Prüfung – die allerdings vor der sozioökonomischen Erweiterung stattfand. Wichtig sei neben dem Verzicht auf personenbezogene Daten, dass ein Mensch und nicht die Software das letzte Wort habe, wenn es um konkrete Einsätze gehe.

Schweer gibt zu, dass es natürlich geschehen könne, dass in den verstärkt durch Streifenpolizisten besuchten Gebieten mehr Ausländer kontrolliert werden. "Aber diese Vorurteile stecken im Kopf der Polizisten, nicht in der Software." Dass dennoch immer wieder Fälle auftreten, in denen entsprechende Mustererkennungsalgorithmen beispielsweise Dunkelhäutige diskriminieren, ärgert ihn. "Das darf nicht passieren." Bewusst sei Precobs kein selbstlernendes System, keine künstliche Intelligenz, die ihre eigenen Schlüsse zieht, sondern werde ausschließlich von Menschen erweitert. "Wir wollen vermeiden, dass sich Fehler einschleichen. Selbstlernende Systeme fallen gerne auf Scheinkorrelationen herein."

Mehr Daten nicht unbedingt sinnvoll

Während Berater Hans Faller und Polizeichef Dieter Schürmann überlegen, welche Daten man noch nutzen könnte, rät Schweer zu Genügsamkeit: Mehr Daten seien nicht unbedingt sinnvoll. "Oft verschlechtert sich die Prognose dadurch sogar", sagt er. Zehn Jahre lang haben die Forscher des Instituts ausgeknobelt, welche Daten zu einem guten Ergebnis führen. Sie landeten bei denkbar wenigen: Tatort und -zeit, Beute und Vorgehensweise. Aber auch diese Eingabedaten wollen gepflegt werden. "Man muss sie säubern." Schließlich dürfen nur jene Taten in die Vorhersage einfließen, die auf professionelle Täter zurückzuführen sind. Nur sie handeln planvoll und erzeugen damit die entsprechenden Muster, nach denen die Software sucht. "Beschaffungskriminelle hingegen schlagen beliebig zu, wenn sie etwas brauchen." Gelangen zu viele solcher Daten ins System, verwässert das die Vorhersage. Deshalb glaubt er nicht an die Eigenentwicklung aus NRW. "Deren System basiert auf einer IBM-Software, die nicht speziell für Predictive Policing entwickelt wurde." Wenn die Polizei ihre Fälle in ein solches Tool manuell einpflege, dauere das nicht nur lange, auch sei die Gefahr groß, dass zu viele falsche Daten benutzt würden, die zu einer ungenauen Vorhersage führen. "Dann schlägt das System vielleicht bei 23 Gebieten Alarm mit 30-prozentiger Zuverlässigkeit", sagt Schweer. Natürlich könne man dann alle überprüfen, eventuell mit dem gleichen Erfolg. Aber wer soll das tun? "Das Ziel ist doch, weniger Personal sinnvoller einsetzen zu können." Precobs hingegen gebe zwei- bis fünfmal am Tag Alarm mit einer Trefferquote von 80 Prozent. "Das können die verfügbaren operativen Kräfte auch überprüfen."

Allzu groß muss die Angst vor Überwachung aktuell noch nicht sein. Wer genauer nachfragt, erfährt, dass die Polizei in den meisten Fällen schon mit ihren bereits ohne Predictive Policing vorhandenen Daten zu kämpfen hat. "Wir wissen nicht, was wir wissen", gibt Schürmann zu. Allein die verschiedenen Register zusammenzuführen, in denen Beamte über Jahre hinweg auf unterschiedlichste Weise Informationen über Taten notiert haben, ist eine Herausforderung. Und danach sind sie noch lange nicht sauber, erklärt Hans Faller. Bei der Polizei in der erwähnten europäische Großstadt haben er und seine Mitarbeiter geholfen, sieben verschiedene Register zu vereinen. Danach waren 19 Millionen Kriminelle im System. Scheinbar: Denn viele waren doppelt vorhanden, weil ihre Namen teils falsch geschrieben wurden. "In Wirklichkeit waren es nur 12 Millionen." Schon der Weg zu dieser Erkenntnis war weit.

*Herr Faller möchte nicht unter seinem richtigen Namen zitiert werden – dieser ist der Redaktion aber bekannt.