Gesichtserkennung: zwischen Bequemlichkeit und Überwachung

Biometrische ​Gesichtserkennung entwickelt sich zur ­allgegenwärtigen Technik. c’t erklärt, wie (gut) sie funktioniert, wann sie nützt und wann sie schadet.​
 
 
​ Gesichtserkennung: zwischen Bequemlichkeit und Überwachung

 

 
 

Als im Januar bekannt wurde, dass sich das bis dato unbekannte US-Start-up Clearview AI eine globale Personensuchmaschine aus Milliarden Social-Media-Fotos aufgebaut hat, schlugen Datenschützer Alarm. Etwa gleichzeitig brachte die Bundesregierung ein Gesetzesvorhaben auf den Weg, das Manipulationen an biometrischen Fotos in Personalausweis und Reisepass verhindern sollte – was Diskussionen über die generelle Sicherheit biometrischer Verfahren wiederaufleben ließ. In dieselbe Kerbe schlug die Europäische Union mit ihren Überlegungen, Echtzeit-Gesichtserkennung im öffentlichen Raum vorerst zu verbieten und stattdessen die Risiken beim Einsatz der Technik besser zu erforschen.

Andererseits vertrauen iPhone-Besitzer auf Apples Gesichtserkennung Face ID, die das Smartphone entsperrt und Zahlungen abwickelt. Bankkonten kann man bequem via Online-Authentifizierungsverfahren eröffnen und Amazon möchte vollautomatisiertes Einkaufen über die hauseigene Gesichtserkennung Rekognition realisieren.

Das alles ergibt ein recht verwirrendes Gesamtbild: Funktioniert Gesichtserkennung nun oder nicht? Schützt sie den Rechtsstaat oder führt sie direkt in den Überwachungsstaat? Und kann die Technik überhaupt unter Schutz der persönlichen Daten funktionieren oder ist das ein Widerspruch in sich?

Simple Antwort: Es kommt darauf an, denn Gesichtserkennung findet in unterschiedlichen Szenarien und damit unter unterschiedlichsten Bedingungen statt. c’t erklärt, welche Sicherheits- und Datenschutzprobleme die jeweiligen Anwendungen aufwerfen können.

Außerdem geben wir einen Einblick in den jeweiligen Stand der Technik – eine zunehmend raffinierte Kombination aus Hardware und selbstlernenden Algorithmen (Deep Learning). Diese Netze lernen selbstständig, worin sich Individuen unterscheiden, indem sie während einer Trainigsphase Millionen von unterschiedlichen Gesichtsfotos (oder Fingerabdrücke, Venen et cetera) miteinander vergleichen. Danach können sie ihr Wissen auf beliebige unbekannte Fotos anwenden.

Ausgereifte Authentifizierungssysteme fallen auf simple Täuschungsmanöver nicht mehr herein. Angriffe mit Silikonmasken oder Fotos aus dem Internet parieren sie mit 3D-Technik und Lebendigkeits-Check. Doch nicht jeder Hersteller ist up to date – und die modernen Algorithmen haben ihre ganz eigenen Schwachstellen, die vor allem bei der Identifikation von Personen erhebliche Probleme aufwerfen können: Die Funktionsweise der Netze ist kaum durchschaubar und ihre vermeintlich neutralen “Entscheidungen” spiegeln oft Stereotype und Vorurteile wider.

Wer sich Personensuchmaschinen und Überwachungssystemen entziehen möchte, anonymisiert seine Fotos oder teilt sie nur privat. Einige Anonymisierungstechniken nutzen geschickt die Schwächen der Deep-Learning-Algorithmen aus und funktionieren sogar im echten Leben – müssen es aber erst mal vom Labor in die Praxis schaffen. An Überwachungsstechnik wird deutlich intensiver geforscht.