Gesichtserkennungssystem - Facial recognition system

Automatisches Ticket-Gate mit Gesichtserkennungssystem in der Metrostation Osaka Morinomiya

Ein Gesichtserkennungssystem ist eine Technologie, die in der Lage ist, ein menschliches Gesicht aus einem digitalen Bild oder einem Videobild mit einer Datenbank von Gesichtern abzugleichen, die typischerweise verwendet wird, um Benutzer durch ID-Verifizierungsdienste zu authentifizieren .

Die Entwicklung begann auf ähnliche Systeme in den 1960er Jahren, als eine Form von Computer beginnen Anwendung . Seit ihrer Einführung haben Gesichtserkennungssysteme in letzter Zeit auf Smartphones und in anderen Technologien wie der Robotik breitere Anwendung gefunden . Da die computergestützte Gesichtserkennung die Messung der physiologischen Eigenschaften eines Menschen beinhaltet, werden Gesichtserkennungssysteme als Biometrie kategorisiert . Obwohl die Genauigkeit von Gesichtserkennungssystemen als biometrische Technologie geringer ist als die der Iriserkennung und der Fingerabdruckerkennung , wird sie aufgrund ihres kontaktlosen Verfahrens weit verbreitet. Gesichtserkennungssysteme wurden bei der fortschrittlichen Mensch-Computer-Interaktion , der Videoüberwachung und der automatischen Indexierung von Bildern eingesetzt.

Gesichtserkennungssysteme werden heute weltweit von Regierungen und privaten Unternehmen eingesetzt. Ihre Wirksamkeit variiert, und einige Systeme wurden zuvor wegen ihrer Unwirksamkeit verschrottet. Auch die Verwendung von Gesichtserkennungssystemen hat zu Kontroversen geführt, da behauptet wird, dass die Systeme die Privatsphäre der Bürger verletzen, häufig falsche Identifizierungen vornehmen, Geschlechternormen und Rassenprofile fördern und wichtige biometrische Daten nicht schützen. Diese Behauptungen haben zum Verbot von Gesichtserkennungssystemen in mehreren Städten in den Vereinigten Staaten geführt .

Geschichte der Gesichtserkennungstechnologie

Die automatisierte Gesichtserkennung wurde in den 1960er Jahren eingeführt. Woody Bledsoe , Helen Chan Wolf und Charles Bisson arbeiteten daran, mit dem Computer menschliche Gesichter zu erkennen. Ihr frühes Gesichtserkennungsprojekt wurde "Mensch-Maschine" genannt, weil die Koordinaten der Gesichtszüge auf einem Foto von einem Menschen festgelegt werden mussten, bevor sie vom Computer zur Erkennung verwendet werden konnten. Auf einem Grafiktablett musste ein Mensch die Koordinaten von Gesichtszügen wie Pupillenzentren, inneren und äußeren Augenwinkeln und der Witwenspitze im Haaransatz bestimmen. Aus den Koordinaten wurden 20 Distanzen berechnet, darunter die Breite des Mundes und der Augen. Ein Mensch könnte auf diese Weise etwa 40 Bilder pro Stunde verarbeiten und so eine Datenbank mit den berechneten Entfernungen aufbauen. Ein Computer würde dann automatisch die Entfernungen für jedes Foto vergleichen, die Differenz zwischen den Entfernungen berechnen und die geschlossenen Aufzeichnungen als mögliche Übereinstimmung zurückgeben.

1970 demonstrierte Takeo Kanade öffentlich ein Gesichtserkennungssystem, das anatomische Merkmale wie das Kinn lokalisierte und das Abstandsverhältnis zwischen Gesichtsmerkmalen ohne menschliches Eingreifen berechnete. Spätere Tests ergaben, dass das System Gesichtsmerkmale nicht immer zuverlässig erkennen konnte. Dennoch wuchs das Interesse an diesem Thema und 1977 veröffentlichte Kanade das erste ausführliche Buch über Gesichtserkennungstechnologie.

1993 gründeten die Defense Advanced Research Project Agency (DARPA) und das Army Research Laboratory (ARL) das Gesichtserkennungstechnologieprogramm FERET , um "automatische Gesichtserkennungsfunktionen" zu entwickeln, die in einer produktiven realen Umgebung "zur Unterstützung der Sicherheit, Geheimdienste und Strafverfolgungspersonal bei der Erfüllung ihrer Aufgaben." In Forschungslabors erprobte Gesichtserkennungssysteme wurden evaluiert, und die FERET-Tests ergaben, dass die Leistung bestehender automatisierter Gesichtserkennungssysteme zwar unterschiedlich war, aber eine Handvoll existierender Methoden zur Erkennung von Gesichtern in Standbildern, die in einer kontrollierten Umgebung aufgenommen wurden, praktikabel verwendet werden könnte. Die FERET-Tests brachten drei US-Unternehmen hervor, die automatisierte Gesichtserkennungssysteme verkauften. Vision Corporation und Miros Inc wurden beide 1994 von Forschern gegründet, die die Ergebnisse der FERET-Tests als Verkaufsargument nutzten. Viisage Technology wurde 1996 von einem Auftragnehmer zur Verteidigung von Ausweiskarten gegründet , um die Rechte an dem von Alex Pentland am MIT entwickelten Gesichtserkennungsalgorithmus kommerziell zu verwerten .

Im Anschluss an den 1993 FERET Gesichtserkennung Anbieter Test der Department of Motor Vehicles (DMV) Büros in West Virginia und New Mexico wurden die ersten DMV Büros automatisierten nutzen Gesichtserkennungssysteme als eine Möglichkeit zur Verhinderung und Aufdeckung Menschen mehr Führerscheine unter verschiedenen Namen zu erhalten. Führerscheine in den Vereinigten Staaten waren zu diesem Zeitpunkt eine allgemein akzeptierte Form des Lichtbildausweises . DMV-Büros in den Vereinigten Staaten wurden einer technologischen Aufrüstung unterzogen und waren dabei, Datenbanken mit digitalen Ausweisfotos einzurichten. Dies ermöglichte es den DMV-Büros, die Gesichtserkennungssysteme auf dem Markt einzusetzen, um Fotos nach neuen Führerscheinen in der bestehenden DMV-Datenbank zu durchsuchen. DMV-Büros wurden zu einem der ersten großen Märkte für automatisierte Gesichtserkennungstechnologie und führten US-Bürgern die Gesichtserkennung als Standardmethode zur Identifizierung ein. Die Zunahme der US-Gefangenenbevölkerung in den 1990er Jahren veranlasste die US-Bundesstaaten, vernetzte und automatisierte Identifikationssysteme einzurichten, die digitale biometrische Datenbanken enthielten, in einigen Fällen auch Gesichtserkennung. 1999 Minnesota integriert das Gesichtserkennungssystem FaceIT von Visionics in ein Fahndungsreservierungssystem , dass erlaubt Polizei, Richter und Justizbeamte Verbrecher über den Staat zu verfolgen.

In dieser Scherabbildung ändert der rote Pfeil die Richtung, der blaue Pfeil jedoch nicht und wird als Eigenvektor verwendet.
Der Viola-Jones-Algorithmus zur Gesichtserkennung verwendet haarähnliche Funktionen , um Gesichter in einem Bild zu lokalisieren. Hier wird ein dem Nasenrücken ähnliches Haar Feature auf das Gesicht aufgetragen.

Bis in die 1990er Jahre wurden Gesichtserkennungssysteme hauptsächlich unter Verwendung fotografischer Porträts von menschlichen Gesichtern entwickelt. Die Forschung zur Gesichtserkennung zur zuverlässigen Lokalisierung eines Gesichts in einem Bild, das andere Objekte enthält, gewann in den frühen 1990er Jahren mit der Hauptkomponentenanalyse (PCA) an Bedeutung. Die PCA-Methode zur Gesichtserkennung ist auch als Eigenface bekannt und wurde von Matthew Turk und Alex Pentland entwickelt. Turk und Pentland kombinierten den konzeptionellen Ansatz des Karhunen-Loève-Theorems und der Faktorenanalyse , um ein lineares Modell zu entwickeln . Eigengesichter werden basierend auf globalen und orthogonalen Merkmalen in menschlichen Gesichtern bestimmt. Ein menschliches Gesicht wird als gewichtete Kombination mehrerer Eigenfaces berechnet . Da nur wenige Eigenfaces verwendet wurden, um menschliche Gesichter einer bestimmten Bevölkerung zu kodieren, reduzierte die PCA-Gesichtserkennungsmethode von Turk und Pentland die Datenmenge, die verarbeitet werden musste, um ein Gesicht zu erkennen. Pentland definierte 1994 Eigengesichtsmerkmale, einschließlich Eigenaugen, Eigenmund und Eigennasen, um die Verwendung von PCA in der Gesichtserkennung voranzutreiben. 1997 wurde die PCA-Eigenface-Methode der Gesichtserkennung verbessert, indem die lineare Diskriminanzanalyse (LDA) verwendet wurde, um Fisherfaces zu erstellen . LDA Fisherfaces wurden dominant in der PCA-Feature-basierten Gesichtserkennung verwendet. Während Eigenfaces auch zur Gesichtsrekonstruktion verwendet wurden. Bei diesen Ansätzen wird keine globale Struktur des Gesichts berechnet, die die Gesichtszüge oder -teile verknüpft.

Rein merkmalsbasierte Ansätze zur Gesichtserkennung wurden in den späten 1990er Jahren vom Bochumer System überholt, das den Gabor-Filter zur Erfassung der Gesichtsmerkmale verwendete und ein Raster der Gesichtsstruktur berechnete , um die Merkmale zu verknüpfen. Christoph von der Malsburg und sein Forschungsteam an der Universität Bochum haben Mitte der 1990er Jahre das Elastic Bunch Graph Matching entwickelt, um mittels Hautsegmentierung ein Gesicht aus einem Bild zu extrahieren. 1997 übertraf das von Malsburg entwickelte Gesichtserkennungsverfahren die meisten anderen Gesichtserkennungssysteme auf dem Markt. Das sogenannte „Bochumer System“ der Gesichtserkennung wurde kommerziell als ZN-Face an Betreiber von Flughäfen und anderen stark frequentierten Standorten verkauft. Die Software sei "robust genug, um Identifizierungen aus nicht perfekten Gesichtsansichten zu machen. Sie kann auch oft solche Hindernisse bei der Identifizierung wie Schnurrbärte, Bärte, geänderte Frisuren und Brillen - sogar Sonnenbrillen - durchschauen".

Die Gesichtserkennung in Echtzeit in Videomaterial wurde 2001 mit dem Viola-Jones-Framework zur Objekterkennung für Gesichter möglich. Paul Viola und Michael Jones kombinierten ihre Gesichtserkennungsmethode mit dem Haar-ähnlichen Feature- Ansatz zur Objekterkennung in digitalen Bildern, um AdaBoost auf den Markt zu bringen , den ersten Echtzeit-Frontalansichts-Gesichtsdetektor. Bis 2015 wurde der Viola-Jones-Algorithmus mit kleinen Detektoren mit geringer Leistung auf Handheld-Geräten und eingebetteten Systemen implementiert . Daher hat der Viola-Jones-Algorithmus nicht nur die praktische Anwendung von Gesichtserkennungssystemen erweitert, sondern wurde auch verwendet, um neue Funktionen in Benutzeroberflächen und Telefonkonferenzen zu unterstützen .

Techniken zur Gesichtserkennung

Automatische Gesichtserkennung mit OpenCV .

Während Menschen Gesichter ohne großen Aufwand erkennen können, ist die Gesichtserkennung ein herausforderndes Mustererkennungsproblem in der Computertechnik . Gesichtserkennungssysteme versuchen, ein menschliches Gesicht, das dreidimensional ist und sein Aussehen mit Beleuchtung und Gesichtsausdruck ändert, basierend auf seinem zweidimensionalen Bild zu identifizieren. Um diese Rechenaufgabe zu erfüllen, führen Gesichtserkennungssysteme vier Schritte durch. Die erste Gesichtserkennung wird verwendet, um das Gesicht vom Bildhintergrund abzutrennen. Im zweiten Schritt wird das segmentierte Gesichtsbild Konto für Gesicht ausgerichtet Pose , Bildgröße und die photographischen Eigenschaften, wie beispielsweise Beleuchtung und Graustufen . Der Ausrichtungsprozess dient dazu, die genaue Lokalisierung von Gesichtsmerkmalen im dritten Schritt, der Gesichtsmerkmalsextraktion, zu ermöglichen. Merkmale wie Augen, Nase und Mund werden im Bild lokalisiert und vermessen, um das Gesicht darzustellen. Der so ermittelte Merkmalsvektor des Gesichts wird dann im vierten Schritt mit einer Datenbank von Gesichtern abgeglichen.

Traditionell

Einige Eigengesichter von AT&T Laboratories Cambridge

Einige Gesichtserkennungsalgorithmen zu identifizieren Gesichtszüge durch Extrahieren von Sehenswürdigkeiten oder Funktionen, von einem Bild der das Gesicht der Person. Ein Algorithmus kann beispielsweise die relative Position, Größe und/oder Form der Augen, Nase, Wangenknochen und Kiefer analysieren. Diese Merkmale werden dann verwendet, um nach anderen Bildern mit übereinstimmenden Merkmalen zu suchen.

Andere Algorithmen normalisieren eine Galerie von Gesichtsbildern und komprimieren dann die Gesichtsdaten, wobei nur die Daten im Bild gespeichert werden, die für die Gesichtserkennung nützlich sind. Ein Sondenbild wird dann mit den Gesichtsdaten verglichen. Eines der frühesten erfolgreichen Systeme basiert auf Vorlagenvergleichstechniken, die auf einen Satz hervorstechender Gesichtsmerkmale angewendet werden und eine Art komprimierte Gesichtsdarstellung liefern.

Erkennungsalgorithmen können in zwei Hauptansätze unterteilt werden: geometrisch, das Unterscheidungsmerkmale untersucht, oder photometrisch, das ein statistischer Ansatz ist, der ein Bild in Werte zerlegt und die Werte mit Vorlagen vergleicht, um Abweichungen zu eliminieren. Einige klassifizieren diese Algorithmen in zwei große Kategorien: ganzheitliche und merkmalbasierte Modelle. Erstere versucht, das Gesicht in seiner Gesamtheit zu erkennen, während die merkmalsbasierten Komponenten beispielsweise nach Merkmalen untergliedern und jede sowie ihre räumliche Lage in Bezug auf andere Merkmale analysieren.

Beliebte Erkennungsalgorithmen sind die Hauptkomponentenanalyse mit Eigenfaces , die lineare Diskriminanzanalyse , das elastische Bündelgraphen- Matching mit dem Fisherface-Algorithmus, das Hidden-Markov-Modell , das multilineare Subraum-Lernen mit Tensordarstellung und das neuronal motivierte dynamische Link-Matching .

Personenidentifikation aus der Ferne (HID)

Zu ermöglichen , die menschliche Identifizierung in einem Abstand (HID) mit niedriger Auflösung Bilder von Gesichtern werden verstärkt unter Verwendung Gesicht Halluzination . In CCTV- Bildern sind Gesichter oft sehr klein. Da jedoch Gesichtserkennungsalgorithmen, die Gesichtsmerkmale identifizieren und darstellen, hochauflösende Bilder erfordern, wurden Techniken zur Auflösungsverbesserung entwickelt, damit Gesichtserkennungssysteme mit Bildern arbeiten können, die in Umgebungen mit einem hohen Signal-Rausch-Verhältnis aufgenommen wurden . Gesichtshalluzinationsalgorithmen, die auf Bilder angewendet werden, bevor diese Bilder an das Gesichtserkennungssystem übermittelt werden, verwenden beispielbasiertes maschinelles Lernen mit Pixelersatz- oder Nächster-Nachbar-Verteilungsindizes , die auch demografische und altersbezogene Gesichtsmerkmale beinhalten können. Die Verwendung von Gesichtshalluzinationstechniken verbessert die Leistung von Gesichtserkennungsalgorithmen mit hoher Auflösung und kann verwendet werden, um die inhärenten Beschränkungen von Superauflösungsalgorithmen zu überwinden. Gesichtshalluzinationstechniken werden auch verwendet, um Bilder vorzubehandeln, bei denen Gesichter verkleidet sind. Hier wird die Verkleidung, beispielsweise eine Sonnenbrille, entfernt und der Gesichtshalluzinationsalgorithmus auf das Bild angewendet. Solche Gesichtshalluzinationsalgorithmen müssen an ähnlichen Gesichtsbildern mit und ohne Verkleidung trainiert werden. Um den durch Entfernen der Verkleidung freigelegten Bereich auszufüllen, müssen Gesichtshalluzinationsalgorithmen den gesamten Zustand des Gesichts korrekt abbilden, was aufgrund des momentanen Gesichtsausdrucks, der in dem Bild mit niedriger Auflösung erfasst wird, möglicherweise nicht möglich ist.

3-dimensionale Erkennung

3D-Modell eines menschlichen Gesichts.

Die dreidimensionale Gesichtserkennungstechnik verwendet 3D-Sensoren, um Informationen über die Form eines Gesichts zu erfassen. Diese Informationen werden dann verwendet, um charakteristische Merkmale auf der Oberfläche eines Gesichts zu identifizieren, wie die Kontur der Augenhöhlen, der Nase und des Kinns. Ein Vorteil der 3D-Gesichtserkennung besteht darin, dass sie nicht wie andere Techniken von Änderungen der Beleuchtung beeinflusst wird. Es kann auch ein Gesicht aus einer Reihe von Blickwinkeln identifizieren, einschließlich einer Profilansicht. Dreidimensionale Datenpunkte von einem Gesicht verbessern die Präzision der Gesichtserkennung erheblich. Die 3D-dimensionale Gesichtserkennungsforschung wird durch die Entwicklung hochentwickelter Sensoren ermöglicht, die strukturiertes Licht auf das Gesicht projizieren. 3D-Matching-Techniken reagieren empfindlich auf Ausdrücke, daher wandten die Forscher am Technion Werkzeuge aus der metrischen Geometrie an, um Ausdrücke als Isometrien zu behandeln . Eine neue Methode zur Aufnahme von 3D-Bildern von Gesichtern verwendet drei Tracking-Kameras, die in verschiedene Winkel zeigen; eine Kamera zeigt auf die Vorderseite des Motivs, die zweite auf die Seite und die dritte schräg. Alle diese Kameras arbeiten zusammen, sodass sie das Gesicht einer Person in Echtzeit verfolgen und Gesichter erkennen und erkennen kann.

Wärmebildkameras

Ein Pseudofarbenbild von zwei Personen, das mit langwelligem Infrarotlicht (thermische Körpertemperatur) aufgenommen wurde.

Eine andere Form der Erfassung von Eingabedaten für die Gesichtserkennung ist die Verwendung von Wärmebildkameras. Bei diesem Verfahren erkennen die Kameras nur die Form des Kopfes und ignorieren das Motivzubehör wie Brille, Mütze oder Make-up. Im Gegensatz zu herkömmlichen Kameras können Wärmebildkameras Gesichtsbilder auch bei schlechten Lichtverhältnissen und bei Nacht aufnehmen, ohne einen Blitz zu verwenden und die Position der Kamera freizugeben. Allerdings sind die Datenbanken zur Gesichtserkennung begrenzt. Die Bemühungen um den Aufbau von Datenbanken mit thermischen Gesichtsbildern reichen bis ins Jahr 2004 zurück. Bis 2016 existierten mehrere Datenbanken, darunter die IIITD-PSE und die Notre Dame-Thermalgesichtsdatenbank. Gegenwärtige thermische Gesichtserkennungssysteme sind nicht in der Lage, ein Gesicht in einem Wärmebild, das von einer Außenumgebung aufgenommen wurde, zuverlässig zu erkennen.

Im Jahr 2018 entwickelten Forscher des US Army Research Laboratory (ARL) eine Technik, die es ihnen ermöglichen würde, Gesichtsbilder, die mit einer Wärmebildkamera aufgenommen wurden, mit denen in Datenbanken abzugleichen, die mit einer herkömmlichen Kamera aufgenommen wurden. Bekannt als Kreuzspektrum-Syntheseverfahren, da es die Gesichtserkennung aus zwei verschiedenen Bildgebungsmodalitäten überbrückt, synthetisiert dieses Verfahren ein einzelnes Bild durch die Analyse mehrerer Gesichtsregionen und -details. Es besteht aus einem nichtlinearen Regressionsmodell, das ein bestimmtes Wärmebild in ein entsprechendes sichtbares Gesichtsbild abbildet und einem Optimierungsproblem, das die latente Projektion zurück in den Bildraum projiziert. ARL-Wissenschaftler haben festgestellt, dass der Ansatz funktioniert, indem globale Informationen (dh Merkmale im gesamten Gesicht) mit lokalen Informationen (dh Merkmale in Bezug auf Augen, Nase und Mund) kombiniert werden. Laut Leistungstests, die am ARL durchgeführt wurden, zeigte das Multi-Region-Cross-Spectrum-Synthesemodell eine Leistungsverbesserung von etwa 30 % gegenüber den Basismethoden und etwa 5 % gegenüber den Methoden nach dem Stand der Technik.

Anwendung

Sozialen Medien

Looksery wurde 2013 gegründet und sammelte Geld für seine Gesichtsmodifikations-App auf Kickstarter. Nach erfolgreichem Crowdfunding startete Looksery im Oktober 2014. Die Anwendung ermöglicht Video-Chats mit anderen durch einen speziellen Filter für Gesichter, der das Aussehen der Benutzer verändert. Bild Vermehrung Anwendungen bereits auf dem Markt, wie Facetune und Perfect365 wurden auf statische Bilder beschränkt, während Looksery Realität zu Live - Videos ergänzt erlaubt. Ende 2015 Snapchat gekauft Looksery, die dann ihre Wahrzeichen Linsen - Funktion werden würde. Snapchat-Filteranwendungen verwenden eine Gesichtserkennungstechnologie und auf der Grundlage der in einem Bild identifizierten Gesichtsmerkmale wird eine 3D-Netzmaske über das Gesicht gelegt.

DeepFace ist ein Deep-Learning- Gesichtserkennungssystem, das von einer Forschungsgruppe bei Facebook entwickelt wurde . Es identifiziert menschliche Gesichter in digitalen Bildern. Es verwendet ein neunschichtiges neuronales Netz mit über 120 Millionen Verbindungsgewichten und wurde an vier Millionen Bildern trainiert , die von Facebook-Nutzern hochgeladen wurden. Das System soll zu 97% genau sein, verglichen mit 85% beim Identifizierungssystem der nächsten Generation des FBI .

Der Algorithmus von TikTok wurde als besonders effektiv angesehen, aber viele wunderten sich über die genaue Programmierung, die dazu führte, dass die App den gewünschten Inhalt des Benutzers so effektiv erraten konnte. Im Juni 2020 veröffentlichte Tiktok eine Erklärung zur "For You"-Seite und wie sie Benutzern Videos empfahlen, die keine Gesichtserkennung enthielten. Im Februar 2021 stimmte Tiktok jedoch einer Einigung in Höhe von 92 Millionen US-Dollar für eine US-Klage zu, in der behauptet wurde, die App habe Gesichtserkennung sowohl in Benutzervideos als auch in ihrem Algorithmus verwendet, um Alter, Geschlecht und ethnische Zugehörigkeit zu identifizieren.

ID-Überprüfung

Der aufkommende Einsatz der Gesichtserkennung liegt in der Nutzung von Diensten zur Identitätsprüfung . Viele Unternehmen und andere arbeiten jetzt auf dem Markt, um diese Dienste für Banken, ICOs und andere E-Business bereitzustellen. Die Gesichtserkennung wurde als eine Form der biometrischen Authentifizierung für verschiedene Computerplattformen und -geräte eingesetzt; Android 4.0 "Ice Cream Sandwich" fügte Gesichtserkennung mit der Frontkamera eines Smartphones als Mittel zum Entsperren von Geräten hinzu, während Microsoft die Gesichtserkennungsanmeldung für seine Xbox 360- Videospielkonsole über sein Kinect- Zubehör sowie Windows 10 über sein " Windows Hello"-Plattform (die eine Infrarotkamera erfordert). Im Jahr 2017 führte Apples iPhone X- Smartphone mit seiner „ Face ID “-Plattform die Gesichtserkennung in die Produktlinie ein , die ein Infrarot-Beleuchtungssystem verwendet.

Gesichts-ID

Apple hat Face ID auf dem Flaggschiff iPhone X als biometrischen Authentifizierungsnachfolger des Touch ID eingeführt , einem auf Fingerabdrücken basierenden System. Face ID verfügt über einen Gesichtserkennungssensor, der aus zwei Teilen besteht: einem „Romeo“-Modul, das mehr als 30.000 Infrarotpunkte auf das Gesicht des Benutzers projiziert, und einem „Juliet“-Modul, das das Muster liest. Das Muster wird an eine lokale "Secure Enclave" in der Zentraleinheit (CPU) des Geräts gesendet, um eine Übereinstimmung mit dem Gesicht des Telefonbesitzers zu bestätigen.

Auf das Gesichtsmuster kann von Apple nicht zugegriffen werden. Das System funktioniert nicht mit geschlossenen Augen, um unbefugten Zugriff zu verhindern. Die Technologie lernt aus Veränderungen des Aussehens eines Benutzers und funktioniert daher mit Mützen, Schals, Brillen und vielen Sonnenbrillen, Bart und Make-up. Es funktioniert auch im Dunkeln. Dies geschieht mit einem "Flood Illuminator", einem speziellen Infrarotblitz , der unsichtbares Infrarotlicht auf das Gesicht des Benutzers wirft, um die 30.000 Gesichtspunkte richtig zu lesen.

Einsatz in Sicherheitsdiensten

Schweizerische europäische Überwachung : Gesichtserkennung und Fahrzeugmarken-, Modell-, Farb- und Kennzeichenleser

Commonwealth

Die australische Grenzpolizei und der neuseeländische Zolldienst haben ein automatisiertes Grenzverarbeitungssystem namens SmartGate eingerichtet , das eine Gesichtserkennung verwendet, die das Gesicht des Reisenden mit den Daten im E-Pass- Mikrochip vergleicht. Alle kanadischen internationalen Flughäfen verwenden die Gesichtserkennung im Rahmen des Primary Inspection Kiosk-Programms, das das Gesicht eines Reisenden mit seinem im ePass gespeicherten Foto vergleicht . Dieses Programm kam Anfang 2017 erstmals am Vancouver International Airport an und wurde 2018–2019 auf alle verbleibenden internationalen Flughäfen ausgeweitet.

Polizeikräfte im Vereinigten Königreich testen seit 2015 Live-Gesichtserkennungstechnologie bei öffentlichen Veranstaltungen. Im Mai 2017 wurde ein Mann mit einem automatischen Gesichtserkennungssystem (AFR) festgenommen, das an einem von der South Wales Police betriebenen Lieferwagen montiert war. Ars Technica berichtete, dass "dies anscheinend das erste Mal ist, dass [AFR] zu einer Festnahme geführt hat". Ein Bericht von Big Brother Watch aus dem Jahr 2018 ergab jedoch, dass diese Systeme bis zu 98% ungenau waren. Der Bericht enthüllte auch, dass zwei britische Polizeikräfte, die South Wales Police und die Metropolitan Police , Live-Gesichtserkennung bei öffentlichen Veranstaltungen und im öffentlichen Raum einsetzten. Im September 2019 wurde die Verwendung der Gesichtserkennung durch die Polizei von South Wales für rechtmäßig erklärt. Die Live-Gesichtserkennung wird seit 2016 in den Straßen Londons getestet und wird ab Anfang 2020 regelmäßig von der Metropolitan Police verwendet . Im August 2020 entschied das Berufungsgericht , dass das Gesichtserkennungssystem vom Süden verwendet wurde Die walisische Polizei hat 2017 und 2018 Menschenrechte verletzt.

Vereinigte Staaten

Flugsteig mit "biometrischen Gesichtsscannern", die von der US-Zoll- und Grenzschutzbehörde am Hartsfield-Jackson Atlanta International Airport entwickelt wurden .

Das US-Außenministerium betreibt eines der größten Gesichtserkennungssysteme der Welt mit einer Datenbank von 117 Millionen amerikanischen Erwachsenen, deren Fotos typischerweise aus Führerscheinfotos stammen. Obwohl es noch lange nicht fertig ist, wird es in bestimmten Städten eingesetzt, um Hinweise darauf zu geben, wer auf dem Foto war. Das FBI verwendet die Fotos als Ermittlungsinstrument, nicht zur eindeutigen Identifizierung. Ab 2016 wurde die Gesichtserkennung verwendet, um Personen auf Fotos zu identifizieren, die von der Polizei in San Diego und Los Angeles aufgenommen wurden (nicht auf Echtzeitvideos und nur gegen Buchungsfotos) und der Einsatz war in West Virginia und Dallas geplant .

In den letzten Jahren hat Maryland die Gesichtserkennung verwendet, indem die Gesichter von Personen mit ihren Führerscheinfotos verglichen wurden. Das System löste Kontroversen aus, als es in Baltimore verwendet wurde, um widerspenstige Demonstranten nach dem Tod von Freddie Gray in Polizeigewahrsam zu verhaften. Viele andere Staaten verwenden oder entwickeln ein ähnliches System, jedoch haben einige Staaten Gesetze, die die Verwendung verbieten.

Das FBI hat auch sein Next Generation Identification- Programm eingeführt, das Gesichtserkennung sowie traditionellere Biometrie wie Fingerabdrücke und Iris-Scans umfasst , die sowohl aus kriminellen als auch zivilen Datenbanken stammen können. Das General Accountability Office des Bundes kritisierte das FBI dafür, dass es verschiedene Bedenken in Bezug auf Datenschutz und Genauigkeit nicht berücksichtigt.

Ab 2018 setzte der US-Zoll- und Grenzschutz „biometrische Gesichtsscanner“ an US-Flughäfen ein. Passagiere, die internationale Abflüge unternehmen, können den Check-in-, Sicherheits- und Boarding-Prozess abschließen, nachdem sie Gesichtsbilder aufgenommen und verifiziert haben, indem sie ihre in der CBP-Datenbank gespeicherten Ausweisfotos abgleichen. Für Reisende mit US-Staatsbürgerschaft aufgenommene Bilder werden innerhalb von bis zu 12 Stunden gelöscht. Die TSA hatte ihre Absicht bekundet, in Zukunft bei der Sicherheitskontrolle ein ähnliches Programm für den Inlandsflugverkehr einzuführen. Die American Civil Liberties Union ist eine der Organisationen, die gegen das Programm sind, da das Programm für Überwachungszwecke verwendet wird.

Im Jahr 2019 berichteten Forscher, dass die Einwanderungs- und Zollbehörde Gesichtserkennungssoftware gegen staatliche Führerscheindatenbanken verwendet, auch für einige Staaten, die Führerscheine für undokumentierte Einwanderer ausstellen.

China

Im Jahr 2006 wurde das Skynet-Projekt von der chinesischen Regierung initiiert, um landesweit CCTV-Überwachung zu implementieren, und ab 2018 wurden für dieses Projekt im ganzen Land 20 Millionen Kameras eingesetzt, von denen viele mit Echtzeit-Gesichtserkennung ausgestattet sind. Einige offizielle Behauptungen dass das aktuelle Skynet-System die gesamte chinesische Bevölkerung in einer Sekunde und die Weltbevölkerung in zwei Sekunden scannen kann.

Flugsteige mit Gesichtserkennungstechnologie am Bahnhof Peking West

Im Jahr 2017 konnte die Polizei von Qingdao beim Qingdao International Beer Festival 25 gesuchte Verdächtige mithilfe von Gesichtserkennungsgeräten identifizieren, von denen einer seit 10 Jahren auf der Flucht war. Das Gerät funktioniert, indem es einen 15-Sekunden-Videoclip aufnimmt und mehrere Schnappschüsse des Motivs macht. Diese Daten werden mit Bildern aus der Datenbank der Polizeibehörde verglichen und analysiert und innerhalb von 20 Minuten kann das Subjekt mit einer Genauigkeit von 98,1% identifiziert werden.

Im Jahr 2018 verwendete die chinesische Polizei in Zhengzhou und Peking Datenbrillen, um Fotos zu machen, die mit einer Regierungsdatenbank mittels Gesichtserkennung abgeglichen wurden, um Verdächtige zu identifizieren, eine Adresse abzurufen und Personen zu verfolgen, die sich außerhalb ihres Wohngebietes bewegten.

Seit Ende 2017 hat China in Xinjiang Technologien zur Gesichtserkennung und künstlichen Intelligenz eingesetzt . Reporter, die die Region besuchten, fanden in mehreren Städten etwa alle hundert Meter Überwachungskameras sowie Kontrollpunkte zur Gesichtserkennung in Bereichen wie Tankstellen, Einkaufszentren und Moscheeeingängen. Im Mai 2019 meldete Human Rights Watch , dass in der Integrated Joint Operations Platform (IJOP), einer polizeilichen Überwachungs-App, mit der Daten über die uigurische Gemeinschaft in Xinjiang gesammelt und verfolgt wird , Face++-Code gefunden wurde . Human Rights Watch veröffentlichte im Juni 2019 eine Berichtigung seines Berichts, in der es heißt, dass das chinesische Unternehmen Megvii anscheinend nicht an IJOP mitgearbeitet hat und dass der Face++-Code in der App nicht funktionsfähig war. Im Februar 2020 beantragte Megvii nach dem Ausbruch des Coronavirus ein Bankdarlehen, um das von ihr eingeführte Körpertemperatur-Screening-System zu optimieren, um Menschen mit Symptomen einer Coronavirus- Infektion in Menschenmengen zu identifizieren . Im Kreditantrag erklärte Megvii, dass sie die Genauigkeit der Identifizierung maskierter Personen verbessern müsse.

Viele öffentliche Orte in China sind mit Gesichtserkennungsgeräten ausgestattet, darunter Bahnhöfe, Flughäfen, Touristenattraktionen, Ausstellungen und Bürogebäude. Im Oktober 2019 verklagte ein Professor der Zhejiang Sci-Tech University den Hangzhou Safari Park wegen Missbrauchs privater biometrischer Daten von Kunden. Der Safaripark verwendet Gesichtserkennungstechnologie, um die Identität seiner Jahreskarteninhaber zu überprüfen. Schätzungsweise 300 Touristenattraktionen in China haben Gesichtserkennungssysteme installiert und verwenden sie, um Besucher einzulassen. Dieser Fall soll der erste über den Einsatz von Gesichtserkennungssystemen in China sein. Im August 2020 berichtete Radio Free Asia , dass 2019 Geng Guanjun, ein Bürger der Stadt Taiyuan , der die WeChat- App von Tencent verwendet hatte , um ein Video an einen Freund in den USA weiterzuleiten, anschließend wegen des Verbrechens "Streitanzetteln und" verurteilt wurde Probleme provozieren". Die Gerichtsdokumente zeigten, dass die chinesische Polizei ein Gesichtserkennungssystem verwendet hat, um Geng Guanjun als „Aktivisten der Demokratie im Ausland“ zu identifizieren, und dass Chinas Netzwerkmanagement- und Propagandaabteilungen WeChat-Benutzer direkt überwachen.

Im Jahr 2019 zerstörten Demonstranten in Hongkong intelligente Laternenpfähle, da sie befürchteten, dass sie Kameras und Gesichtserkennungssysteme enthalten könnten, die von chinesischen Behörden zur Überwachung verwendet werden.

Lateinamerika

Bei den mexikanischen Präsidentschaftswahlen im Jahr 2000 setzte die mexikanische Regierung eine Gesichtserkennungssoftware ein, um Wahlbetrug zu verhindern . Einige Personen hatten sich unter verschiedenen Namen registriert, um mehrere Stimmen abzugeben. Durch den Vergleich neuer Gesichtsbilder mit denen, die bereits in der Wählerdatenbank vorhanden waren, konnten die Behörden Doppelregistrierungen reduzieren.

In Kolumbien sind Busse des öffentlichen Verkehrs mit einem Gesichtserkennungssystem von FaceFirst Inc. ausgestattet , um Fahrgäste zu identifizieren, die von der kolumbianischen Nationalpolizei gesucht werden . FaceFirst Inc hat auch das Gesichtserkennungssystem für den internationalen Flughafen Tocumen in Panama gebaut. Das Gesichtserkennungssystem wird eingesetzt, um Personen unter den Reisenden zu identifizieren, die von der panamaischen Nationalpolizei oder Interpol gesucht werden . Der Tocumen International Airport betreibt ein flughafenweites Überwachungssystem mit Hunderten von Live-Gesichtserkennungskameras, um gesuchte Personen zu identifizieren, die den Flughafen passieren. Das Gesichtserkennungssystem wurde zunächst im Rahmen eines 11-Millionen-US-Dollar-Auftrags installiert und umfasste einen Computercluster von sechzig Computern, ein Glasfaserkabelnetz für die Flughafengebäude sowie die Installation von 150 Überwachungskameras im Flughafenterminal und am Flughafen ca. 30 Flughafen-Gates .

Bei der FIFA Fussball-Weltmeisterschaft 2014 in Brasilien verwendete die brasilianische Bundespolizei Schutzbrillen zur Gesichtserkennung . Auch bei den Olympischen Sommerspielen 2016 in Rio de Janeiro kamen Gesichtserkennungssysteme „made in China“ zum Einsatz . Nuctech Company lieferte 145 Inspektionsterminals für das Maracanã-Stadion und 55 Terminals für den Deodoro Olympic Park .

europäische Union

Polizeikräfte in mindestens 21 Ländern der Europäischen Union verwenden Gesichtserkennungssysteme für administrative oder kriminelle Zwecke oder planen deren Einsatz.

Griechenland

Die griechische Polizei hat mit Intracom-Telecom einen Vertrag über die Bereitstellung von mindestens 1.000 Geräten mit Live-Gesichtserkennungssystem abgeschlossen. Die Lieferung wird vor dem Sommer 2021 erwartet. Der Gesamtauftragswert beträgt über 4 Millionen Euro, zu einem großen Teil vom Fonds für die innere Sicherheit der Europäischen Kommission bezahlt .

Italien

Die italienische Polizei erwarb 2017 ein Gesichtserkennungssystem, Sistema Automatico Riconoscimento Immagini (SARI). Im November 2020 kündigte das Innenministerium an, damit in Echtzeit asylverdächtige Personen zu identifizieren.

Die Niederlande

Die Niederlande setzen seit 2016 Technologien zur Gesichtserkennung und künstlichen Intelligenz ein. Die Datenbank der niederländischen Polizei enthält derzeit über 2,2 Millionen Bilder von 1,3 Millionen Niederländern. Dies macht etwa 8% der Bevölkerung aus. In den Niederlanden wird die Gesichtserkennung von der Polizei bei der kommunalen Videoüberwachung nicht verwendet.

Südafrika

In Südafrika kündigte die Stadt Johannesburg 2016 die Einführung intelligenter CCTV-Kameras mit automatischer Nummernschild- und Gesichtserkennung an.

Einsatz in Einzelhandelsgeschäften

Die US-Firma 3VR, heute Identiv , ist ein Beispiel für einen Anbieter, der bereits 2007 damit begann, Einzelhändlern Gesichtserkennungssysteme und -dienstleistungen anzubieten. "Gesichtsüberwachungsanalyse zur Erleichterung personalisierter Kundenbegrüßungen durch Mitarbeiter " und die Möglichkeit, "Loyalitätsprogramme durch die Kombination von Point-of-Sale- Daten (POS) mit Gesichtserkennung zu erstellen".

Vereinigte Staaten

Im Jahr 2018 bezeichnete der National Retail Federation Loss Prevention Research Council die Gesichtserkennungstechnologie als „ein vielversprechendes neues Werkzeug“, das es wert ist, bewertet zu werden.

Im Juli 2020 wird die Reuter berichtete Nachrichtenagentur , dass die während der 2010er Apothekenkette Rite Aid Gesichtserkennung eingesetzt hatten Videoüberwachungssysteme und Komponenten von FaceFirst, DeepCam LLC und anderen Anbietern an einigen Verkaufsstellen in den Vereinigten Staaten. Cathy Langley, Vice President of Asset Protection von Rite Aid, verwendet den Begriff "Feature Matching", um sich auf die Systeme zu beziehen, und sagte, dass die Verwendung der Systeme zu weniger Gewalt und organisierter Kriminalität in den Geschäften des Unternehmens führte, während der ehemalige Vice President of Asset Protection Bob Oberosler betonte eine verbesserte Sicherheit für das Personal und einen geringeren Bedarf an Einbindung von Strafverfolgungsbehörden . In einer Erklärung gegenüber Reuters im Jahr 2020 als Reaktion auf die Berichterstattung sagte Rite Aid, dass es die Gesichtserkennungssoftware nicht mehr verwendet und die Kameras ausgeschaltet habe.

Laut dem Direktor Read Hayes vom National Retail Federation Loss Prevention Research Council war das Überwachungsprogramm von Rite Aid entweder das größte oder eines der größten Programme im Einzelhandel. The Home Depot , Menards , Walmart und 7-Eleven sind neben anderen US-Einzelhändlern auch an groß angelegten Pilotprogrammen oder dem Einsatz von Gesichtserkennungstechnologie beteiligt.

Von den von Reuters im Jahr 2020 untersuchten Rite Aid-Geschäften war die Wahrscheinlichkeit, dass die Technologie installiert war, in Gemeinden, in denen Farbige die größte Rasse oder ethnische Gruppe darstellten, dreimal so hoch, was Bedenken hinsichtlich der erheblichen Geschichte der Rassentrennung und des Racial Profiling aufkommen ließ in den Vereinigten Staaten . Rite Aid sagte, dass die Auswahl der Standorte "datengesteuert" sei, basierend auf den Diebstahlgeschichten einzelner Geschäfte, lokalen und nationalen Kriminalitätsdaten und der Standortinfrastruktur.

Zusätzliche Verwendungen

Disney's Magic Kingdom , in der Nähe von Orlando, Florida , während einer Erprobung einer Gesichtserkennungstechnologie für den Parkeintritt.

Beim American-Football- Meisterschaftsspiel Super Bowl XXXV im Januar 2001 verwendete die Polizei in Tampa Bay, Florida, die Gesichtserkennungssoftware Viisage , um nach potenziellen Kriminellen und Terroristen zu suchen, die an der Veranstaltung teilnahmen. 19 Personen mit geringfügigen Vorstrafen wurden möglicherweise identifiziert.

Gesichtserkennungssysteme wurden auch von Fotoverwaltungssoftware verwendet, um die Motive von Fotos zu identifizieren, was Funktionen wie das Durchsuchen von Bildern nach Personen ermöglicht sowie vorschlägt, Fotos mit einem bestimmten Kontakt zu teilen, wenn ihre Anwesenheit auf einem Foto erkannt wurde. Bis 2008 wurden Gesichtserkennungssysteme typischerweise als Zugangskontrolle in Sicherheitssystemen eingesetzt .

Der US-amerikanische Popmusik- und Country- Star Taylor Swift setzte 2018 bei einem Konzert heimlich Gesichtserkennungstechnologie ein. Die Kamera war in einen Kiosk in der Nähe eines Ticketschalters eingebettet und scannte Konzertbesucher beim Betreten der Einrichtung auf bekannte Stalker .

Am 18. August 2019 berichtete The Times , dass das in den Vereinigten Arabischen Emiraten ansässige Manchester City eine in Texas ansässige Firma Blink Identity beauftragt hat, Gesichtserkennungssysteme in einem Fahrerprogramm einzusetzen. Der Klub hat für die Fans im Etihad-Stadion eine einzige Super-Überholspur geplant . Bürgerrechtsgruppen warnten den Club jedoch vor der Einführung dieser Technologie und sagten, dass die Gefahr besteht, "ein Instrument zur Massenüberwachung zu normalisieren". Die Politik- und Kampagnenbeauftragte von Liberty , Hannah Couchman, sagte, dass der Umzug von Man City alarmierend sei, da die Fans verpflichtet sein werden, hochsensible persönliche Informationen an ein privates Unternehmen weiterzugeben, wo sie in ihrem täglichen Leben verfolgt und überwacht werden könnten.

Im August 2020 kündigten die American-Football-Stadien von New York und Los Angeles inmitten der COVID-19-Pandemie in den USA die Installation von Gesichtserkennung für bevorstehende Spiele an. Ziel ist es, den Eingabeprozess so berührungslos wie möglich zu gestalten. Disneys Magic Kingdom in der Nähe von Orlando, Florida , kündigte ebenfalls einen Test der Gesichtserkennungstechnologie an, um während der Pandemie ein berührungsloses Erlebnis zu schaffen; der Test sollte ursprünglich zwischen dem 23. März und dem 23. April 2021 stattfinden, aber der begrenzte Zeitrahmen wurde Ende April entfernt.

Vorteile und Nachteile

Im Vergleich zu anderen biometrischen Systemen

Im Jahr 2006 wurde die Leistungsfähigkeit der neuesten Gesichtserkennungsalgorithmen in der Face Recognition Grand Challenge (FRGC) bewertet . In den Tests wurden hochauflösende Gesichtsbilder, 3D-Gesichtsscans und Irisbilder verwendet. Die Ergebnisse zeigten, dass die neuen Algorithmen 10 Mal genauer sind als die Gesichtserkennungsalgorithmen von 2002 und 100 Mal genauer als die von 1995. Einige der Algorithmen waren in der Lage, menschliche Teilnehmer bei der Erkennung von Gesichtern zu übertreffen und konnten eineiige Zwillinge eindeutig identifizieren.

Ein wesentlicher Vorteil eines Gesichtserkennungssystems ist, dass es eine Massenidentifikation durchführen kann, da es für die Arbeit keine Mitwirkung des Probanden erfordert. Richtig konzipierte Systeme, die in Flughäfen, Multiplexen und anderen öffentlichen Orten installiert sind, können Personen in der Menge identifizieren, ohne dass Passanten das System überhaupt bemerken. Im Vergleich zu anderen biometrischen Techniken ist die Gesichtserkennung jedoch möglicherweise nicht die zuverlässigste und effizienteste. Qualitätsmaße sind bei Gesichtserkennungssystemen sehr wichtig, da bei Gesichtsbildern große Variationen möglich sind. Faktoren wie Beleuchtung, Ausdruck, Pose und Rauschen während der Gesichtserfassung können die Leistung von Gesichtserkennungssystemen beeinflussen. Unter allen biometrischen Systemen weist die Gesichtserkennung die höchsten falschen Akzeptanz- und Ablehnungsraten auf, daher wurden Fragen zur Wirksamkeit von Gesichtserkennungssoftware bei der Bahn- und Flughafensicherheit aufgeworfen.

Schwächen

Ralph Gross, Forscher am Carnegie Mellon Robotics Institute im Jahr 2008, beschreibt ein Hindernis im Zusammenhang mit dem Blickwinkel des Gesichts: Profil, es gab Probleme." Neben den Posenvariationen sind auch niedrig aufgelöste Gesichtsbilder sehr schwer zu erkennen. Dies ist eines der Haupthindernisse der Gesichtserkennung in Überwachungssystemen.

Die Gesichtserkennung ist weniger effektiv, wenn der Gesichtsausdruck variiert. Ein breites Lächeln kann das System weniger effektiv machen. Zum Beispiel: Kanada erlaubte 2009 nur neutrale Gesichtsausdrücke auf Passfotos.

Auch die von den Forschern verwendeten Datensätze sind inkonsistent. Forscher können von mehreren Themen bis hin zu Dutzenden von Themen und einigen hundert Bildern bis hin zu Tausenden von Bildern verwenden. Für Forschende ist es wichtig, sich die verwendeten Datensätze gegenseitig zur Verfügung zu stellen oder zumindest einen Standarddatensatz zu haben.

Gesichtserkennungssysteme wurden dafür kritisiert, dass sie auf einer binären Geschlechtsannahme beruhen und urteilen . Bei der Klassifizierung der Gesichter von Cis- Personen in männlich oder weiblich sind diese Systeme oft sehr genau, waren jedoch typischerweise verwirrt oder nicht in der Lage, die Geschlechtsidentität von Transgender- und nicht-binären Personen zu bestimmen . Geschlechtsnormen werden von diesen Systemen so sehr aufrechterhalten, dass selbst wenn ein Foto eines Cisgender-Männchens mit langen Haaren gezeigt wurde, die Algorithmen zwischen der Geschlechternorm von Männern mit kurzen Haaren und den männlichen Gesichtszügen gespalten und verwirrt wurden. Diese versehentliche Verwechslung des Geschlechts kann für diejenigen, die sich nicht mit ihrem bei der Geburt zugewiesenen Geschlecht identifizieren, sehr schädlich sein, da ihre Geschlechtsidentität ignoriert und ungültig gemacht wird. Dies ist auch schädlich für Menschen, die sich nicht traditionellen und veralteten Geschlechternormen zuschreiben, da sie ihren Geschlechtsausdruck , unabhängig von ihrer Geschlechtsidentität, ungültig machen .

Unwirksamkeit

Kritiker der Technologie beschweren sich, dass das London Borough of Newham- Programm seit 2004 keinen einzigen Kriminellen erkannt hat, obwohl mehrere Kriminelle in der Datenbank des Systems im Borough leben und das System seit mehreren Jahren läuft. "Soweit die Polizei weiß, hat Newhams automatisches Gesichtserkennungssystem kein einziges Mal ein lebendes Ziel entdeckt." Diese Informationen scheinen im Widerspruch zu Behauptungen zu stehen, wonach dem System eine Reduzierung der Kriminalität um 34 % zugeschrieben wurde (daher wurde es auch in Birmingham eingeführt).

Ein Experiment im Jahr 2002 der örtlichen Polizei in Tampa , Florida, hatte ähnlich enttäuschende Ergebnisse. Ein System am Bostoner Logan Airport wurde 2003 abgeschaltet, nachdem während eines zweijährigen Testzeitraums keine Übereinstimmungen erzielt wurden.

Im Jahr 2014 gab Facebook an, dass sein Online-System in einem standardisierten Gesichtserkennungstest mit zwei Optionen eine Genauigkeit von 97,25 % erreichte, verglichen mit dem menschlichen Benchmark von 97,5%.

Systeme werden oft mit einer Genauigkeit nahe 100 % beworben; Dies ist irreführend, da die Studien häufig viel kleinere Stichprobengrößen verwenden, als dies für groß angelegte Anwendungen erforderlich wäre. Da die Gesichtserkennung nicht ganz genau ist, erstellt sie eine Liste potenzieller Übereinstimmungen. Ein menschlicher Operator muss dann diese potenziellen Übereinstimmungen durchsehen, und Studien zeigen, dass die Operatoren nur etwa die Hälfte der Zeit die richtige Übereinstimmung aus der Liste auswählen. Dies führt zu dem Problem, den falschen Verdächtigen anzusprechen.

Kontroversen

Datenschutzverletzungen

Bürgerrechtsorganisationen und Datenschutzaktivisten wie die Electronic Frontier Foundation , Big Brother Watch und die ACLU äußern ihre Besorgnis darüber, dass die Privatsphäre durch den Einsatz von Überwachungstechnologien kompromittiert wird . Die Gesichtserkennung kann nicht nur verwendet werden, um eine Person zu identifizieren, sondern auch, um andere personenbezogene Daten, die mit einer Person verbunden sind , aufzudecken – wie z. Es wurden Bedenken darüber geäußert, wer zu einem bestimmten Zeitpunkt Zugang zu den Informationen über den Aufenthaltsort und die Personen mit ihnen haben würde. Darüber hinaus haben Einzelpersonen nur begrenzte Möglichkeiten, die Verfolgung der Gesichtserkennung zu vermeiden oder zu vereiteln, es sei denn, sie verbergen ihre Gesichter. Dies ändert die Dynamik des täglichen Datenschutzes grundlegend, indem es jedem Vermarkter, jeder Regierungsbehörde oder zufälligen Fremden ermöglicht, heimlich die Identitäten und die damit verbundenen persönlichen Informationen jeder Person zu sammeln, die vom Gesichtserkennungssystem erfasst wird. Verbraucher verstehen möglicherweise nicht oder wissen nicht, wofür ihre Daten verwendet werden, was ihnen die Möglichkeit verweigert, der Weitergabe ihrer personenbezogenen Daten zuzustimmen.

Im Juli 2015 erstellte das US-Regierungsbüro für Rechenschaftspflicht einen Bericht an das Ranking-Mitglied, Unterausschuss für Datenschutz, Technologie und Recht, Justizausschuss des US-Senats. In dem Bericht wurden die kommerzielle Nutzung der Gesichtserkennungstechnologie, Datenschutzfragen und das geltende Bundesrecht erörtert. Darin heißt es, dass zuvor Fragen der Gesichtserkennungstechnologie diskutiert wurden und die Notwendigkeit einer Aktualisierung der Datenschutzgesetze der Vereinigten Staaten darstellt, damit das Bundesrecht kontinuierlich den Auswirkungen fortschrittlicher Technologien entspricht. Der Bericht stellte fest, dass einige Industrie-, Regierungs- und private Organisationen dabei waren, „freiwillige Datenschutzrichtlinien“ zu entwickeln oder entwickelt haben. Diese Richtlinien variierten zwischen den Beteiligten , aber ihr übergeordnetes Ziel bestand darin, die Zustimmung zu erhalten und die Bürger über die beabsichtigte Verwendung der Gesichtserkennungstechnologie zu informieren. Dem Bericht zufolge haben die freiwilligen Datenschutzrichtlinien dazu beigetragen, Datenschutzbedenken entgegenzuwirken, die entstehen, wenn Bürger nicht wissen, wie ihre personenbezogenen Daten verwendet werden.

Im Jahr 2016 sorgte das russische Unternehmen NtechLab für einen Datenschutzskandal in den internationalen Medien, als es das Gesichtserkennungssystem FindFace mit dem Versprechen auf den Markt brachte , dass russische Nutzer Fotos von Fremden auf der Straße machen und sie mit einem Social-Media-Profil auf der Social-Media-Plattform Vkontakte ( VT). Im Dezember 2017 hat Facebook eine neue Funktion eingeführt, die einen Benutzer benachrichtigt, wenn jemand ein Foto hochlädt, das das enthält, was Facebook für sein Gesicht hält, auch wenn es nicht getaggt ist. Facebook hat versucht, die neue Funktionalität trotz früherer Gegenreaktionen in ein positives Licht zu rücken. Der Datenschutzbeauftragte von Facebook, Rob Sherman, bezeichnete diese neue Funktion als eine, die den Menschen mehr Kontrolle über ihre Fotos im Internet gibt. „Wir haben dies als eine wirklich stärkende Funktion betrachtet“, sagt er. "Es kann sein, dass es Fotos gibt, von denen Sie nichts wissen." DeepFace von Facebook ist Gegenstand mehrerer Sammelklagen nach dem Biometric Information Privacy Act geworden, in denen behauptet wird, dass Facebook die Gesichtserkennungsdaten seiner Benutzer ohne Einholung einer informierten Zustimmung sammelt und speichert, was einen direkten Verstoß gegen den Biometric Information Privacy Act (BIPA .) von 2008 darstellt ). Der letzte Fall wurde im Januar 2016 wegen Unzuständigkeit des Gerichts abgewiesen. In den USA verlassen sich Überwachungsunternehmen wie Clearview AI auf den First Amendment der US-Verfassung , um Benutzerkonten auf Social-Media-Plattformen nach Daten zu scrappen, die bei der Entwicklung von Gesichtserkennungssystemen verwendet werden können.

Im Jahr 2019 berichtete die Financial Times erstmals, dass im Londoner Stadtteil King's Cross eine Gesichtserkennungssoftware im Einsatz war . Die Bebauung rund um den Londoner Hauptbahnhof King's Cross umfasst Geschäfte, Büros, das britische Hauptquartier von Google und einen Teil des St. Martin's College. Nach Angaben des britischen Informationskommissariats : "Das Scannen der Gesichter von Menschen, die rechtmäßig ihrem täglichen Leben nachgehen, um sie zu identifizieren, ist eine potenzielle Bedrohung für die Privatsphäre, die uns alle betreffen sollte." Die britische Informationskommissarin Elizabeth Denham leitete eine Untersuchung über die Verwendung des Gesichtserkennungssystems King's Cross ein, das von der Firma Argent betrieben wird. Im September 2019 gab Argent bekannt, dass bei King's Cross keine Gesichtserkennungssoftware mehr verwendet wird . Argent behauptete, dass die Software zwischen Mai 2016 und März 2018 auf zwei Kameras eingesetzt worden sei, die eine Fußgängerzone durch das Zentrum der Siedlung abdeckten. Im Oktober 2019 enthüllte ein Bericht der stellvertretenden Londoner Bürgermeisterin Sophie Linden , dass die Metropolitan Police in einem geheimen Deal Fotos von sieben Personen an Argent zur Verwendung in ihrem King's Cross-Gesichtserkennungssystem weitergegeben hatte.

Die automatische Gesichtserkennung wurde zwischen 2017 und 2019 mehrmals von der South Wales Police getestet . Der Einsatz der Technologie wurde von einer Privatperson, Edward Bridges, mit Unterstützung der Wohltätigkeitsorganisation Liberty (Fall bekannt als R (Bridges) v Chief Constable South Wales Police). Der Fall wurde vor dem Berufungsgericht verhandelt und im August 2020 ein Urteil gefällt. Der Fall argumentierte, dass die Verwendung der Gesichtserkennung eine Verletzung der Privatsphäre darstelle, da der Rechtsrahmen oder die Verhältnismäßigkeit bei der Verwendung der Gesichtserkennung unzureichend seien und dass seine Verwendung verstieß gegen die Datenschutzgesetze von 1998 und 2018 . Der Fall wurde zugunsten von Bridges entschieden und kein Schadensersatz zugesprochen. Der Fall wurde durch eine Erklärung des Fehlverhaltens beigelegt. Als Reaktion auf den Fall hat die britische Regierung wiederholt versucht, ein Gesetz zur Regelung der Verwendung der Gesichtserkennung im öffentlichen Raum zu verabschieden. Mit den vorgeschlagenen Gesetzentwürfen wurde versucht, einen Beauftragten mit der Fähigkeit zu ernennen, die Verwendung der Gesichtserkennung durch Regierungsdienste in ähnlicher Weise wie der Beauftragte für CCTV zu regulieren . Ein solches Gesetz muss noch in Kraft treten [Stand: September 2021].

Unvollkommene Technologie in der Strafverfolgung

Es ist immer noch umstritten, ob die Gesichtserkennungstechnologie bei farbigen Menschen weniger genau funktioniert. Eine Studie von Joy Buolamwini (MIT Media Lab) und Timnit Gebru (Microsoft Research) ergab, dass die Fehlerquote bei der Geschlechtserkennung bei farbigen Frauen in drei kommerziellen Gesichtserkennungssystemen zwischen 23,8% und 36% lag, während sie bei hellhäutigen Männern lag lag zwischen 0,0 und 1,6 %. Die Gesamtgenauigkeitsraten bei der Identifizierung von Männern (91,9%) waren höher als bei Frauen (79,4%), und keines der Systeme ermöglichte ein nicht-binäres Verständnis des Geschlechts. Es zeigte sich auch, dass die Datensätze, die zum Trainieren kommerzieller Gesichtserkennungsmodelle verwendet wurden, für die breitere Bevölkerung nicht repräsentativ waren und auf hellhäutigere Männer ausgerichtet waren. Eine andere Studie zeigte jedoch, dass mehrere kommerzielle Gesichtserkennungssoftware, die an Strafverfolgungsbehörden im ganzen Land verkauft wurde, bei Schwarzen eine niedrigere Rate falscher Nichtübereinstimmungen aufwies als bei Weißen.

Experten befürchten, dass Gesichtserkennungssysteme Bürgern schaden könnten, die die Polizei behauptet, sie zu schützen. Es gilt als unvollkommen biometrisch, und in einer Studie der Georgetown University-Forscherin Clare Garvie kam sie zu dem Schluss, dass "es in der wissenschaftlichen Gemeinschaft keinen Konsens darüber gibt, dass es eine positive Identifizierung von jemandem ermöglicht". Es wird angenommen, dass sowohl Rechtsanwälte als auch Hersteller von Gesichtserkennungssoftware bei so großen Fehlermargen bei dieser Technologie sagen, dass die Technologie nur einen Teil des Falles liefern sollte – keine Beweise, die zu einer Festnahme einer Person führen können. Das Fehlen von Vorschriften, die Gesichtserkennungstechnologieunternehmen an die Anforderungen rassistisch voreingenommener Tests halten, kann ein erheblicher Fehler bei der Einführung der Verwendung in der Strafverfolgung sein. CyberExtruder , ein Unternehmen, das sich an Strafverfolgungsbehörden vermarktet, gab an, dass es keine Tests oder Untersuchungen zu Voreingenommenheiten in seiner Software durchgeführt habe. CyberExtruder stellte fest, dass einige Hautfarben für die Software mit den aktuellen Einschränkungen der Technologie schwieriger zu erkennen sind. „So wie Personen mit sehr dunkler Haut über Gesichtserkennung schwer mit hoher Bedeutung zu identifizieren sind, sind Personen mit sehr blasser Haut dasselbe“, sagte Blake Senftner, Senior Software Engineer bei CyberExtruder.

Datenschutz

Im Jahr 2010 verabschiedete Peru das Gesetz zum Schutz personenbezogener Daten, das biometrische Informationen, die verwendet werden können, um eine Person zu identifizieren, als sensible Daten definiert. Kolumbien hat 2012 ein umfassendes Datenschutzgesetz verabschiedet, das biometrische Daten als sensible Informationen definiert. Gemäß Artikel 9 Absatz 1 der EU- Datenschutzgrundverordnung (DSGVO) 2016 ist die Verarbeitung biometrischer Daten zum Zwecke der „eindeutigen Identifizierung einer natürlichen Person“ sensibel und die so verarbeiteten Gesichtserkennungsdaten werden zu sensiblen personenbezogenen Daten. Als Reaktion auf die Verabschiedung der DSGVO in das Recht der EU-Mitgliedstaaten äußerten sich in der EU ansässige Forscher besorgt darüber, dass eine Gesichtsdatenbank in der Größenordnung von MegaFace niemals möglich wäre, wenn sie gemäß der DSGVO die Zustimmung einer Person zur Verarbeitung ihrer Gesichtserkennungsdaten einholen müssten wieder aufgebaut werden. Im September 2019 verhängte die schwedische Datenschutzbehörde (DPA) ihre erste Geldstrafe für einen Verstoß gegen die Datenschutz-Grundverordnung (DSGVO) der EU gegen eine Schule, die die Technologie einsetzte, um zeitaufwändige Appelle während des Unterrichts zu ersetzen. Die Datenschutzbehörde stellte fest, dass die Schule die biometrischen Daten ihrer Schüler illegal erlangt hatte, ohne eine Folgenabschätzung durchzuführen. Außerdem hat die Schule die Datenschutzbehörde nicht auf das Pilotprojekt aufmerksam gemacht. Es wurde eine Geldstrafe von 200.000 SEK (19.000 €/21.000 $) verhängt.

In den Vereinigten Staaten von Amerika haben mehrere US-Bundesstaaten Gesetze zum Schutz der Privatsphäre biometrischer Daten erlassen. Beispiele sind der Illinois Biometric Information Privacy Act (BIPA) und der California Consumer Privacy Act (CCPA). Im März 2020 California Bewohner reichten eine Sammelklage gegen Clearview AI , der zufolge , dass das Unternehmen Online - biometrische Daten illegal gesammelt hatte und mit Hilfe von Gesichtserkennungstechnologie eine Datenbank mit biometrischen Daten aufgebaut, die an Unternehmen und Polizeikräfte verkauft wurde. Zu diesem Zeitpunkt sah sich Clearview AI bereits mit zwei Klagen im Rahmen des BIPA und einer Untersuchung des kanadischen Datenschutzbeauftragten wegen der Einhaltung des Personal Information Protection and Electronic Documents Act (PIPEDA) konfrontiert.

Verbot der Verwendung von Gesichtserkennungstechnologien

Im Mai 2019 verbot San Francisco, Kalifornien, als erste Großstadt der Vereinigten Staaten die Verwendung von Gesichtserkennungssoftware für die Polizei und andere lokale Regierungsbehörden. Der San Francisco Supervisor Aaron Peskin führte Vorschriften ein, nach denen Agenturen die Genehmigung des San Francisco Board of Supervisors für den Kauf von Überwachungstechnologie einholen müssen. Die Vorschriften verlangen auch, dass Behörden die beabsichtigte Verwendung neuer Überwachungstechnologien öffentlich offenlegen. Im Juni 2019 verbot Somerville , Massachusetts, als erste Stadt an der Ostküste Gesichtsüberwachungssoftware für die Verwendung durch die Regierung, insbesondere bei polizeilichen Ermittlungen und kommunaler Überwachung. Im Juli 2019 verbot Oakland, Kalifornien , die Verwendung von Gesichtserkennungstechnologien durch städtische Behörden.

Die American Civil Liberties Union ("ACLU") hat sich in den Vereinigten Staaten für Transparenz in der Überwachungstechnologie eingesetzt und das Verbot von Gesichtserkennungssoftware sowohl in San Francisco als auch in Somerville unterstützt. Die ACLU arbeitet daran, die Geheimhaltung und Überwachung mit dieser Technologie in Frage zu stellen.

Im Januar 2020 hat die Europäische Union ein vorgeschlagenes Moratorium für die Gesichtserkennung im öffentlichen Raum vorgeschlagen, dann aber schnell wieder verworfen.

Während der Proteste von George Floyd wurde in Boston , Massachusetts , die Verwendung der Gesichtserkennung durch die Stadtregierung verboten . Ab dem 10.06.2020 ist die städtische Nutzung verboten in:

Am 27. Oktober 2020 forderten 22 Menschenrechtsgruppen die University of Miami auf, die Gesichtserkennungstechnologie zu verbieten. Dies geschah, nachdem die Schüler der Schule vorgeworfen hatten, die Software zur Identifizierung von Schülerdemonstranten zu verwenden. Die Vorwürfe wurden jedoch von der Universität zurückgewiesen.

Die im Oktober 2020 ins Leben gerufene europäische Koalition „ Reclaim Your Face “. Die Koalition fordert ein Verbot der Gesichtserkennung und startete im Februar 2021 eine Europäische Bürgerinitiative. Mehr als 60 Organisationen fordern die Europäische Kommission auf, den Einsatz biometrischer Überwachung streng zu regulieren Technologien.

Ein staatliches Polizeireformgesetz in Massachusetts wird im Juli 2021 in Kraft treten; ein vom Gesetzgeber beschlossenes Verbot wurde von Gouverneur Charlie Baker abgelehnt . Stattdessen verlangt das Gesetz einen richterlichen Beschluss, begrenzt das Personal, das die Durchsuchung durchführen kann, zeichnet Daten über die Verwendung der Technologie auf und setzt eine Kommission ein, die Empfehlungen zu zukünftigen Vorschriften ausspricht.

Emotionserkennung

Im 18. und 19. Jahrhundert war der Glaube weit verbreitet, dass der Gesichtsausdruck den moralischen Wert oder den wahren inneren Zustand eines Menschen offenbarte, und die Physiognomie war eine angesehene Wissenschaft in der westlichen Welt. Ab dem frühen 19. Jahrhundert wurde die Fotografie bei der physiognomischen Analyse von Gesichtszügen und Mimik verwendet, um Wahnsinn und Demenz zu erkennen . In den 1960er und 1970er Jahren wurde das Studium der menschlichen Emotionen und ihrer Ausdrucksformen von Psychologen neu erfunden , die versuchten, einen normalen Bereich emotionaler Reaktionen auf Ereignisse zu definieren. Die Forschung zur automatisierten Emotionserkennung konzentriert sich seit den 1970er Jahren auf Mimik und Sprache , die als die beiden wichtigsten Arten gelten, mit denen Menschen Emotionen anderen Menschen mitteilen . In den 1970er Jahren wurde die Kategorisierung des Facial Action Coding System (FACS) für den körperlichen Ausdruck von Emotionen etabliert. Ihr Entwickler Paul Ekman behauptet, dass es sechs Emotionen gibt, die für alle Menschen universell sind und sich in Mimik kodieren lassen. Die Forschung zur automatischen emotionsspezifischen Ausdruckserkennung hat sich in den letzten Jahrzehnten auf Frontalansichten menschlicher Gesichter konzentriert.

Im Jahr 2016 gehörten Algorithmen zur Erkennung von Gesichtsmerkmalen neben hochauflösender Videoüberwachung , hochauflösender 3D-Gesichtserkennung und Iriserkennung zu den neuen Technologien, die ihren Weg aus den universitären Forschungslabors fanden. Im Jahr 2016 erwarb Facebook FacioMetrics, ein Spin-off-Unternehmen zur Erkennung von Gesichtsmerkmalen von der Carnegie Mellon University . Im selben Jahr erwarb Apple Inc. das Gesichtserkennungs- Start-up Emotient. Ende 2016 boten kommerzielle Anbieter von Gesichtserkennungssystemen an, Emotionserkennungsalgorithmen für Gesichtsmerkmale zu integrieren und einzusetzen. Das Media Lab- Spin-off Affectiva des MIT bietet Ende 2019 ein Produkt zur Erkennung von Gesichtsausdrücken, das Emotionen beim Autofahren erkennen kann .

Anti-Gesichtserkennungssysteme

Im Januar 2013 entwickelten japanische Forscher des National Institute of Informatics eine „Privacy Visor“-Brille, die fast Infrarotlicht verwendet, um das darunterliegende Gesicht für eine Gesichtserkennungssoftware unkenntlich zu machen. Die neueste Version verwendet einen Titanrahmen, lichtreflektierendes Material und eine Maske, die Winkel und Muster verwendet, um die Gesichtserkennungstechnologie durch absorbierende und reflektierte Gegenlichtquellen zu stören. Einige Projekte verwenden kontradiktorisches maschinelles Lernen , um neue gedruckte Muster zu entwickeln, die vorhandene Gesichtserkennungssoftware verwirren.

Eine weitere Methode zum Schutz vor Gesichtserkennungssystemen sind spezielle Haarschnitte und Make-up-Muster, die verhindern, dass die verwendeten Algorithmen ein Gesicht erkennen, bekannt als Computer Vision Dazzle . Die bei Juggalos beliebten Make-up-Styles können übrigens auch vor Gesichtserkennung schützen.

Gesichtsmasken, die zum Schutz vor ansteckenden Viren getragen werden, können die Genauigkeit von Gesichtserkennungssystemen verringern. Eine NIST- Studie aus dem Jahr 2020 testete beliebte Eins-zu-Eins-Matching-Systeme und fand eine Fehlerquote zwischen fünf und fünfzig Prozent bei maskierten Personen. The Verge spekulierte, dass die Genauigkeitsrate von Massenüberwachungssystemen, die nicht in die Studie einbezogen wurden, noch ungenauer wäre als die Genauigkeit von Eins-zu-Eins-Abgleichsystemen. Die Gesichtserkennung von Apple Pay kann viele Barrieren überwinden, darunter starkes Make-up, dicke Bärte und sogar Sonnenbrillen, scheitert aber bei Masken.

Siehe auch

Listen

Verweise

Weiterlesen

Externe Links