Direkt zum Inhalt

Lobes Digitalfabrik: Google für Überwachungskameras

Eine Suchfunktion für Bilder aus Überwachungskameras? Das ist attraktiv für Kriminalisten, aber nichts anderes als Rasterfahndung per KI, findet unser Kolumnist Adrian Lobe.
Zwei Überwachungskameras

In China sind nach Schätzungen rund 200 Millionen Überwachungskameras im (halb-)öffentlichen Raum installiert: in Bahnhöfen, Shopping-Malls und sogar in Klassenzimmern. In anderen Ländern sind die Zahlen geringer, aber letztendlich nicht weniger eindrucksvoll. Eine ganze Menschheitsgeschichte wird Woche für Woche dokumentiert und aus Speicherplatz- und Datenschutzgründen wieder gelöscht. Da stellt sich natürlich die Frage: Wer soll das alles ansehen?

Wichtige Sequenzen, die Details einer Straftat zeigen, rauschen bei manueller Prüfung häufig durch. Behörden auf der ganzen Welt setzen daher verstärkt Gesichtserkennungssysteme ein, welche Livebilddaten automatisiert mit biometrischen Datenbanken abgleichen. Trotzdem lässt sich das gesammelte Material meist nur händisch systematisieren.

Indische Wissenschaftler haben nun ein Tool entwickelt, mit dem anhand von Größe, Haarfarbe oder Geschlecht in Videoaufzeichnungen gezielt nach Personen gesucht werden kann. Eine Suchmaschine für Videobilder. Die Softwareingenieure von der Universität Ahmedabad trainierten dazu ein neuronales Netzwerk mit einem Datensatz (»SoftBioSearch«), der über 100 000 Bilder von Personen aus verschiedenen Kameraperspektiven enthielt. Ein Bilderkennungsalgorithmus markierte die Silhouette von Personen, extrahierte Kopf- und Fußpunkte und errechnete durch Abgleich mit den Kameradaten die Körpergröße der Person. In einem zweiten Schritt zerlegte der Algorithmus den Datenkörper in einen Torso und bestimmte die Farben des Kleidungsstücks. Das Geschlecht des Abgebildeten bestimmte die KI anhand der Variablen Körpergröße und Kleidungsfarbe. So lernte das Netz im Lauf seines Trainings, dass beispielsweise Personen, die über 1,80 Meter groß sind und dunkle Kleidung tragen, mit höherer Wahrscheinlichkeit männlich sind als weiblich.

Der Algorithmus soll 28 von 41 Personen korrekt erkannt haben, schreiben die Forscher in ihrem Fachartikel. Das ist eine stattliche Fehlerrate. Berücksichtigt man jedoch die teils ungünstigen Lichtverhältnisse, ist dies für einen Algorithmus wiederum eine akzeptable Quote.

Jeder Bürger, der im öffentlichen Raum von einer Überwachungskamera aufgezeichnet wird, würde zum Gegenstand einer Rasterfahndung

Der Ansatz ist nicht neu. Das Start-up IC Realtime hat bereits vor einiger Zeit eine intelligente Videosuchmaschine namens Ella entwickelt, in der man Videomaterial nach bestimmten Gegenständen durchsuchen kann. Die Software, die im Kameranetzwerk installiert wird, ergänzt das Videomaterial um Metadaten und sendet es an einen gesicherten Server. Dort werden die Metadaten von einem Deep-Learning-Algorithmus analysiert und in suchbare Informationsstücke verwandelt. In einem Suchfenster kann man einfach einen Begriff eingeben – zum Beispiel »roter Laster« –, dann durchkämmt die Software das Videomaterial und identifiziert den gesuchten Gegenstand. Für den Anwender heißt das: Man muss nicht mehr stundenlang Videomaterial auswerten, um herauszufinden, wann der Tankbetrüger mit dem Auto wegfuhr. Bei der Fahndung nach einem Bankräuber könnte man einfach die Täterbeschreibung in die Suchmaschine eingeben: männlich, 1,70 bis 1,80 Meter groß, dunkle Augen, Baseballmütze.

Klar, dass so ein Werkzeug bei Kriminalisten auf offene Ohren stößt. Videoanalyse wird in den USA nach Fingerabdrücken und DNA als »dritte Forensik« (third forensic) bezeichnet. Man müsste nur auf einen Knopf drücken, um nach vermissten Personen oder zur Fahndung ausgeschriebenen Verbrechern zu suchen. Mittels geobasierter Livestreamdaten könnte man den Missetätern schnell auf die Schliche kommen. Allein, das ist eine relativ naive und gefährliche kriminalistische Vorstellung. Abgesehen davon, dass das Verfahren methodische Mängel aufweist und teils mit plumpen Stereotypen operiert – auch Frauen können über 180 Zentimeter groß sein und männliche Kleidung tragen –, stellen sich bei solchen Instrumenten auch immer Fragen nach dem Datenschutz. Jeder Bürger, der im öffentlichen Raum von einer Überwachungskamera aufgezeichnet wird, würde durch eine visuelle Suche nach verbreiteten Merkmalen wie »rote Jacke« oder »braune Augen« zum Gegenstand einer Rasterfahndung.

Das Bundesverfassungsgericht hob in seiner Entscheidung zur Rasterfahndung 2006 (Beschluss vom 4. April 2006, 1 BvR 518/02) hervor, dass der damals gerügte Passus des Polizeigesetzes Nordrhein-Westfahlen »verdachtslose Grundrechtseingriffe mit großer Streubreite« vorsehe: »Es können alle Personen einbezogen werden, welche die Auswahlkriterien erfüllen, ohne dass es Anforderungen an die Nähe dieser Personen zur Gefahr oder zu verdächtigen Personen gibt.« Mit einer Suchmaschine für Überwachungskameras verhält es sich ähnlich: Jede Person würde zum suchbaren Objekt, jeder Merkmalsträger anlasslos gescreent, der Zweck von Speicherfristen konterkariert. Selbst wenn man ausschließlich die gesuchte Person herausfiltert, würden durch die undifferenzierte Auswertung des Videomaterials auch biometrische Merkmale Unbeteiligter zumindest für eine logische juristische Sekunde erfasst, was unverhältnismäßig ist.

Leider ist Verhältnismäßigkeit ein Rechtsgrundsatz, der in autoritären Regimen wenig Beachtung findet. Die chinesische Polizei setzt in Peking und Schanghai neuerdings ein System ein, das Menschen allein anhand ihrer Statur und ihres Gangs erkennt. Man kann nur hoffen, dass der Computerblick nicht allzu scharf gestellt wird. Vielleicht wirkt die Datenexplosion aber auch wie ein eingebautes Datenschutzprogramm: In den kommenden Jahren werden so viel Daten erzeugt, dass sensible Information in Datenwolken verborgen bleiben. Privacy by Fehldesign sozusagen. Mehr Bilder schaffen nicht unbedingt mehr Klarsicht.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.