Direkt zum Inhalt

Datenschutz: Warum amerikanische Städte die Gesichtserkennung verbieten

Technischer Fortschritt ist ein zweischneidiges Schwert. Gesichtserkennung ist bequem, wenn man damit sein Handy entsperrt. Aber wenn öffentliche Überwachungskameras wahllos Menschen verfolgen, hört der Spaß auf. Das finden auch einige amerikanische Städte und haben ihren Behörden den Einsatz dieser Technologie untersagt.
Datenschutz: Warum amerikanische Städte die Gesichtserkennung verbieten

Veröffentlicht am: 06.08.2019

Laufzeit: 0:10:05

Sprache: englisch

Computerprogramme zur Gesichtserkennung sind in den letzten Jahren immer populärer geworden. Wer sein Smartphone freischalten will, muss es nur noch ansehen. Die Zeit der vergessenen Passwörter ist vorbei. Aber im Mai 2019 hat die Stadt San Francisco beschlossen, ihrer Polizei und den städtischen Behörden den Einsatz von Gesichtserkennungssoftware zu verbieten. Die kalifornische Stadt Oakland und die Stadt Somerville an der Ostküste, in der Nähe von Boston, haben nachgezogen. Der Staat Kalifornien hat außerdem ein Gesetz beschlossen, das die Benutzung entsprechender Apps auf den Bodycams von Polizisten vorläufig verbietet. Das renommierte Magazin »Wired« hat in diesem Video die Juristin und Bildverarbeitungsexpertin Gretchen Greene gefragt, welche Motive die Städte und Staaten dafür haben könnten.

Bis vor wenigen Jahren war maschinelle Gesichtserkennung kein wirklich drängendes Thema. Die Systeme arbeiteten einfach zu ungenau. Aber mit der Einführung des iPhone X bot Apple 2017 erstmals eine Freischaltung per Gesichtserkennung an. Google wollte ein ähnliches System unter dem Namen »Trusted Face« in Android 10 integrieren, hat es aber während der Beta-Phase wieder entfernt. Einige Hersteller bieten eigene Gesichtserkennungssysteme auf Android-Smartphones an, Samsung beispielsweise schon seit 2011. Allerdings waren fast alle Systeme anfangs so leicht zu überlisten, dass sie als Passwortersatz im Grunde unbrauchbar waren. Sie versuchten, aus markanten Punkten im Gesicht und deren Abständen eine möglichst eindeutige Zahl zu destillieren. Das funktionierte aber nie so richtig.

Seit 2014 arbeiten die meisten Anwendungen mit neuronalen Netzen, und zwar in der erst seit wenigen Jahren verbreiteten Variante der gefalteten neuronalen Netze (convolutional neural networks). Dieses Verfahren hat die Zuverlässigkeit der Gesichtserkennung dramatisch verbessert, auch unter verschiedenen Beleuchtungen, einem weiten Bereich von Sichtwinkeln und bei geringer Abbildungsschärfe. Die Sache hat nur einen Haken: Die neuronalen Netze müssen ausgiebig trainiert werden, am besten mit mehreren Millionen Gesichtsbildern. Noch vor zehn Jahren wäre das ein Problem gewesen. Heute können auch kleinere Firmen solche Datenbanken kaufen oder wenigstens nutzen. Deshalb gibt es einige Dutzend Anwendungen, die inzwischen absolut praxistauglich sind.

In chinesischen Großstädten betrachten die Menschen es offenbar als sehr angenehm, an Automaten, beim Onlineshopping oder im Supermarkt mit ihrem Gesicht eine Zahlung zu autorisieren. China betreibt zentrale Gesichtsdatenbanken, auf die auch private Firmen zugreifen dürfen. Gesichtserkennungssysteme im öffentlichen Raum könnten viele Menschen gleichzeitig erfassen und komplette Bewegungsprofile anlegen. Während man Fingerabdrücke kaum ohne Wissen des Benutzers abnehmen kann, sind gesichtsbasierte Bewegungsprofile aus der Ferne, mit heutigen Überwachungseinrichtungen und ohne Einwilligung realisierbar. Das ist mit westlichen Vorstellungen von Privatsphäre kaum in Einklang zu bringen. San Francisco hat übrigens bisher keine Gesichtserkennung eingesetzt, das Verbot ist erst einmal rein präventiv.

Selbst eine gute Gesichtserkennung eignet sich kaum dazu, gesuchte Kriminelle auf Flughäfen zu finden. Nehmen wir an, die Software hat eine Erkennungsquote von 99 Prozent. Dann würde es einen von 100 unbescholtenen Fluggästen für einen Kriminellen halten. Wenn einer von 2000 Fluggästen tatsächlich zur Fahndung ausgeschrieben ist, dann würde die Polizei 20 Menschen näher kontrollieren müssen, um einen Kriminellen zu finden. Weil die größten Flughäfen der Welt von mehr als 200 000 Menschen pro Tag frequentiert werden, wäre eine Fehlerquote von einem Prozent völlig untragbar. Immerhin würden pro Tag und Flughafen mehr als 2 000 Menschen unter falschem Verdacht festgenommen. Die Polizei in Orlando in Florida hat im Juli 2019 ein Experiment zur Einführung der Gesichtserkennung mit öffentlichen Überwachungskameras beendet, weil die Ergebnisse absolut unbefriedigend waren. Das lag zwar nicht allein an der von Amazon bereitgestellten Software Rekognition, aber es zeigt, dass die Technologie für den Routineeinsatz noch nicht ausgereift genug ist. Außerdem rief das Experiment Bürgerrechtsgruppen auf den Plan, die eine unangemessene Einschränkung der Privatsphäre befürchteten. Eine Erprobung in London mit anderer Software ergab auch keine wirklich praxistauglichen Resultate. Besser verlief ein einjähriger Test am Berliner Südkreuz. Ab August 2017 sollten drei Programme verschiedener Hersteller etwa 300 freiwillig teilnehmende Zielpersonen sicher aus der Menge herausfischen. Das gelang zu etwa 80 Prozent. Umgekehrt identifizierten die Programme weniger als 0,1 Prozent der Unbeteiligten fälschlich als Zielperson. Innenminister Seehofer befand, die eingesetzten Systeme hätten sich »in beeindruckender Weise« bewährt. Aber wie auch immer die Tests heute ausfallen: Es ist nur eine Frage der Zeit, bis die Gesichtserkennung durchgehend zuverlässig funktioniert. Das hat offenbar auch die EU-Kommission erkannt. Ursula von der Leyen möchte möglichst schnell eine Regelung vorlegen, die den ausufernden Einsatz von Gesichtserkennung verhindern soll. In den USA ist noch nichts dergleichen geplant, obwohl die Kontroverse bereits im Kongress angekommen ist. Städte und Bundesstaaten machen erst einmal ihre eigenen Gesetze.

Das Interview mit Gretchen Greene gibt nur eine sehr allgemeine Einführung in die komplexe Problematik. Einige ihrer Beispiele sind etwas weit hergeholt, und an anderen Stellen scheint sie nicht ganz auf dem aktuellen Stand zu sein. Beispielsweise erwähnt sie, dass einige Systeme schwarze Frauen schlechter erkennen. Diese Kritik kam schon im Jahr 2016 von der schwarzen MIT-Forscherin Joy Buolamwini. Dabei ging es allerdings nicht um die Erkennung der Person, sondern um die richtige Klassifizierung des Geschlechts. 2018 hat sie die drei untersuchten Datenbanken erneut getestet und feststellt, dass die Fehlerrate deutlich geringer geworden ist und sich der für weiße Männer annähert. Die Zuverlässigkeit der Systeme hängt kritisch von der Anzahl der Übungsbilder ab, und da haben die kritisierten Firmen offenbar deutlich nachgebessert. Bei einigen anderen besteht das Problem jedoch nach wie vor, dürfte jedoch ebenfalls in nächster Zeit verschwinden, wenn die Systeme weiter trainiert werden. Frau Greene erwähnt auch nicht die Bemühungen der EU um eine gesetzliche Beschränkung oder den alltäglichen Einsatz der Gesichtserkennung in China. Der abschließenden Frage des Interviewers nach künftig sinnvollen Regulierungen weicht sie aus. Auch auf die Diskussion im US-Kongress geht sie nicht ein. In Europa ist die Privatsphäre ausgesprochen wichtig, in China spielt dieser Aspekt keine Rolle. In den USA haben offenbar selbst Experten gelegentlich ein Problem damit, sich eindeutig zu positionieren.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.