Direkt zum Inhalt

Lobes Digitalfabrik: Wir merken uns schon mal Ihr Gesicht

Die Deutsche Bahn testet am Berliner Südkreuz eine intelligente Videoüberwachung. Auch der Bund liebäugelt damit. Und ignoriert großzügig, wie fragwürdig die Systeme wirklich sind.
Gesichter

Bahnkunden stehen künftig unter verstärkter Beobachtung. Wie der "Tagesspiegel" berichtete, will die Deutsche Bahn ein System zur Videoüberwachung einsetzen, das mit Hilfe einer Software automatisch Gesichter und Gefahrensituationen erkennen soll. Das System wird laut Plan zunächst im Rahmen eines Probebetriebs am Berliner Bahnhof Südkreuz getestet werden. "Diese Kamera ist ein kleines Wunderding", weiß "Tagesspiegel"-Autor Klaus Kurpjuweit zu berichten und hebt zu einer Eloge auf die Technik an, so als würde er für die PR-Abteilung des Herstellers schreiben: "Sie soll durch eine Gesichtserkennung Menschen herausfiltern, die auf einer Liste von Verdächtigen gespeichert sind. Zudem soll sie abgestellte Gegenstände, etwa Koffer oder Pakete, die längere Zeit nicht bewegt wurden, registrieren. Und auch das typische Verhalten von Taschendieben soll sie erkennen."

Wow, könnte man meinen. Doch was so plausibel und clever klingt, ist in der Praxis mit erheblichen Problemen behaftet. Die Frage ist: Woher kommen die Daten für den Abgleich biometrischer Merkmale? Wer landet auf dieser ominösen Liste? Lässt sich das Verhalten von Taschendieben typisieren? Vor allem: Gibt es "den" typischen Verbrecher? Oder landet man hier nicht schnell in einer Gesinnungsjustiz? Bereits Eugen Roth schrieb, auf Listen stehen sei gefährlich.

Das BKA ist schon einmal mit einer 2-D-Foto-Fahndung gescheitert. Im Rahmen eines Feldversuchs wurden von Oktober 2006 bis Januar 2007 am Mainzer Hauptbahnhof drei Kamerasysteme installiert, deren Aufnahmen eine Gesichtserkennungssoftware auswertete. Dazu wurde eine Datenbank von 200 Probanden erstellt, aus deren Fotos biometrische Templates extrahiert wurden. Die Ergebnisse waren ernüchternd: Bei Tageslicht, so berichtete der Onlinedienst "Heise", wurden lediglich Erkennungsdaten von 60 Prozent erzielt, nachts sank die Rate auf 10 bis 20 Prozent. Entsprechend vernichtend fiel das Urteil des damaligen BKA-Präsidenten Jörg Ziercke aus: "Biometrische Gesichtserkennungssysteme im öffentlichen Raum sind derzeit nicht einsatzfähig, ihre Erkennungsleistung ist nicht ausreichend genug. Außerdem ist das Potenzial einer Falscherkennung zu hoch."

Wenn mit Mustererkennung nach Auffälligkeiten gefahndet wird, wer definiert dann Kriminalität?

Doch offensichtlich haben die Sicherheitsbehörden aus den Fehlern der Vergangenheit nicht gelernt. Bundesinnenminister Thomas de Maizière sagte in seiner Rede zum Entwurf eines Videoüberwachungsverbesserungsgesetzes vor dem Deutschen Bundestag am 27. Januar 2017: "Videomaßnahmen sind nicht isoliert zu betrachten. Intelligent mit Systemen zur Gesichtserkennung verknüpft, können sie in Zukunft auch ein effektives Fahndungsmittel sein. Wir arbeiten daran. Noch ist das Zukunftsmusik; aber es ist, glaube ich, etwas, was wichtig ist und hilft."

Natürlich: Seit der Erprobung der biometrischen Gesichtserkennungssoftware durch das BKA sind inzwischen zehn Jahre vergangen, einige Fortschritte wurden auf dem Gebiet erzielt. Aber die Fehlerhaftigkeit dieser Systeme ist nach wie vor vorhanden. Eine Studie des US-Verteidigungsministeriums stellte eine hohe Fehlerrate bei Gesichtserkennungssystemen selbst unter optimalen Bedingungen fest, wenn die Person bei idealen Lichtverhältnissen frontal in die Kamera blickt. Die Untersuchung fand eine hohe Zahl von Falschpositiven – Fällen, bei denen Personen fälschlicherweise mit Fotos anderer gematcht wurden – und Falschnegativen, also von Fällen, bei denen die Übereinstimmung mit einem Eintrag in der Datenbank nicht erkannt wurde. Das legt den Schluss nahe, dass bei den derzeit eingesetzten Systemen Gefährder durch den Rost fallen und Unschuldige als verdächtig gelten.

Eine Studie des Center on Privacy & Technology der Georgetown University kam zu dem Ergebnis, dass Gesichtserkennungsalgorithmen rassistisch verzerrt sind. Das Problem: Wenn man dunklere Haut hat, gibt es weniger Informationen auf dem Foto, weil die Haut das Licht anders reflektiert. Dunkle Haut zu haben bedeutet, dass es für den Algorithmus schwerer ist, Gesichter zu unterscheiden. Laut der Studie arbeiten Gesichtserkennungssysteme bei schwarzen Bürgern fünf bis zehn Prozent ungenauer. Hinzu kommt, dass Afroamerikaner statistisch gesehen viel häufiger von der Polizei kontrolliert werden und dadurch öfter in den Datenbanken landen. Schwarze Amerikaner haben eine zweieinhalbfach höhere Wahrscheinlichkeit als weiße, von der Polizei angehalten zu werden. Der Afroamerikaner Philando Castile, der wegen eines defekten Rücklichts in eine Verkehrskontrolle geriet und durch die Kugel eines Polizisten starb, war vor seinem Tod in knapp zwölf Jahren 46-mal kontrolliert worden. Dem menschlichen folgt ein technologischer Rassismus. Ein Teufelskreis. Laut dem Bericht sind Fotos von 117 Millionen Amerikanern in Datenbanken gespeichert. In den USA, wo an immer mehr Flughäfen Gesichtserkennungssysteme installiert werden, gleicht die Technik einer Rasterfahndung. Kann das als "Best Practice" für Deutschland gelten?

Auf eine Anfrage des Grünen-Abgeordneten Konstantin von Notz und weiterer Fraktionsmitglieder, ob inzwischen Gesichtserkennungssysteme existieren, die das bekannte Problem mangelhafter Erkennungsleistungen auf Grund wechselnder Lichtverhältnisse in "zufrieden stellender Weise" überwunden haben, antwortete die Bundesregierung ausweichend und selektiv: "Hier vorliegende Informationen zu Tests von ausländischen Behörden lassen vermuten, dass die Erkennungsgenauigkeit aktueller Systeme deutlich gestiegen ist." Ob eine bloße Vermutung als Erkenntnisgrundlage für einen weiteren Testlauf genügt, darf bezweifelt werden.

Voller Zugriff auf die Personalausweisbilder

Jenseits der Frage nach der Verhältnismäßigkeit eines automatischen Datenabgleichs und Vereinbarkeit mit dem Recht auf informationelle Selbstbestimmung stellt sich bei einer algorithmischen Musterkennung die Frage, wer eigentlich Kriminalität definiert und ob hier nicht Polizeigewalt unzulässigerweise an Maschinen delegiert wird. Zeigt jemand schon ein auffälliges Verhalten, wenn er zweimal die Rolltreppe rauf- und runterfährt? Welche Objekte gelten als verdächtig? Was wird hier alles getrackt? Der Gefahrenabwehr ist immer ein Prognoseelement inhärent, doch was die Maschine vom Menschen unterscheidet, ist, dass sie viel deterministischer und unnachgiebiger operiert und dies mit unserem Verständnis von Rechtsstaatlichkeit kaum vereinbar ist.

Der Bundestag hat unterdessen in erster Lesung ein Gesetz ("Gesetz zur Förderung des elektronischen Identitätsnachweises") beraten, das deutschen Geheimdiensten einen voll automatisierten Zugriff auf die biometrischen Passbilder aller Bürger erlauben soll. Der automatisierte Lichtbildabruf kommt einer zentralen Datenbank mit biometrischen Bildern sehr nahe, deren Errichtung nach § 26 des Personalausweisgesetzes eigentlich nicht statthaft ist. Der automatisierte Zugriff der Behörden auf die Bilddatenbanken könne dazu führen, "dass jeder Mensch sein Gesicht als Nummernschild herumträgt und in naher Zukunft an jedem Ort jederzeit identifizierbar ist", kritisierte der Datenschützer Markus Reuter von der Redaktion netzpolitik.org. Wenn die Software irrt, könnte es bald heißen: Endstation Bahnhof.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.