Freitag, 15. September 2017

APPLE: FACE ID ERKLÄRT - SO FUNKTIONIERT DIE GESICHTSERKENNUNG. (HELIODA1)


Face ID erklärt – So funktioniert die Gesichtserkennung

15.09.2017 | 13:36 Uhr | 



Touch ID hat ausgedient, Face ID kommt

Die Gerüchte der letzten Monate haben sich bewahrheitet, Apple hat mit dem iPhone X sein Konzept der Touch ID verworfen und setzt nun auf die Face ID. Dies ist eine biometrische Methode, die anhand eines Rasters von Punkten Gesichter erkennen und somit das Smartphone entsperren kann. Auf der Bühne verspricht Apple noch mehr Sicherheit als bei der Touch ID – Die Gesichtserkennung im iPhone X nutzt mehr Kontrollpunkte zum Abgleich als es noch mit einem Finger möglich war. So kann das Kamerasystem des iPhones den Nutzer auch in Dunkelheit erkennen – dank der eingebauten Infrarot-Kamera. Auch nach einem radikalen Haarschnitt soll die Erkennung und Entsperrung noch möglich sein. Dagegen können die eigenen Kinder keinen Streich mehr beim Schlafen spielen und das iPhone X ohne das Wissen der Eltern entsperren, das System erkennt, wenn der Nutzer auf das iPhone blickt. Laut Apple werden so die Entsperrungen mit einem Foto oder gar mit einer Maske nicht möglich sein.

Das Kamera System im iPhone x
VergrößernDas Kamera System im iPhone x





Was die neue Technologie der Gesichtserkennung auf sich hat, haben wir einen Biometrie-Experten der Bundesdruckerei gefragt.



Macwelt: Können Sie sich kurz vorstellen?

Wolf: Mein Name ist Andreas Wolf, ich arbeite in der Bundesdruckerei als Principal Scientist auf dem Gebiet der Biometrie. Außerdem habe ich einen Lehrauftrag für angewandte Biometrie an der Freien Universität Berlin. Darüber hinaus bin ich Editor von diversen ISO-Standards zum Thema Gesichtserkennung. Meine Aufgabe ist es, in unserem Haus hinsichtlich diverser Anwendungen beratend zur Seite zu stehen, wenn es etwa um das Thema „Gesichter“ geht.



Macwelt: Wie funktioniert Gesichtserkennung?

Wolf: Ganz allgemein betrachtet ist die Gesichtserkennung eine biometrische Charakteristik und damit ein ganz spezifisches Authentifikationsverfahren. Schon seit den 60er und 70er Jahren klassifiziert man Authentifikationsverfahren in drei Kategorien: Was man weiß, wie beispielsweise Passworte, was man hat, wie zum Beispiel Smartcards, und was man ist – die Biometrie.  Die Gesichtserkennung ordnet sich in die letztere Kategorie ein. Hier erfolgt bei einem Gesichtserkennungssystem ein Vergleich zwischen hinterlegten Referenzdaten und den Live-Daten einer Person, häufig unter Verwendung von Gesichtsbildern.

Ein ganz prominentes Beispiel ist der Reisepass. Hier befinden sich die hinterlegten Referenzdaten in Form des aufgedruckten und in elektronischer Form hinterlegten Passbildes im Pass. Sobald man einen Grenzübergang passiert, der mit automatischen Grenzkontrollspuren ausgerüstet ist, werden ihre Referenzdaten aus dem Pass ausgelesen, Live-Bilder erfasst und mit den Referenzdaten verglichen. Dahinter steht letztendlich ein Algorithmus, der aus beiden Bildern sogenannte Features – bestimmte Merkmale –  extrahiert.

Das sind beispielsweise die Position der Augen zueinander, die Augenränder, Nase, Mund, alles, was im Gesicht möglichst guten Kontrast hat. Die werden über Vergleichsverfahren analysiert. Wenn  extrahierten Features ähnlich genug sind, ist die Identität der betreffenden Person verifiziert.


Macwelt: Können Sie abschätzen, welches Matching-Verfahren Apple bei der Face-ID nutzt?

Wolf: Das neue iPhone hat, wie sich das für mich nach Lesen der ersten publizierten Artikel darstellt, eine 3D-Gesichtserkennung verbaut. Diese Art der Gesichtserkennung kann entweder über eine Stereo-Kamera, also mit zwei  in bekanntem Abstand angebrachten Kameras, erfolgen. Aus mit diesen Kameras gleichzeitig erfassten Bildern kann ein dreidimensionales Modell des Kopfes der Person erstellt werden. So funktioniert das bei uns Menschen letztendlich auch.

Eine andere Methode – und so wird es offenbar auch in dem iPhone X gemacht – projiziert im nahinfraroten Bereich ein Schachbrett oder ein anderes genau definiertes Punktmuster ins Gesicht. Dieses Muster nimmt die Infrarot-Kamera dann auf.

Wenn Sie das Muster beispielsweise auf ein Blatt Papier projizieren würden, könnte man aufgrund der ebenen Fläche dasselbe Muster sehen, wie es ausgestrahlt wurde. Anhand der beobachteten Verzerrung könnte man den Winkel bestimmen, in dem man das Blatt hält. Wenn man aber eine dreidimensionale Struktur, wie etwa ein Gesicht, in diesen Projektorstrahl hält, dann kommt es zu einer Verzerrung des Musters, weil die 3D-Struktur nicht eben ist. Auf der Nase sind dann zum Beispiel die Muster weiter verschoben als auf den Wangen.

Das heißt also: Im Fall des neuen iPhones generiert man ein kleines aber feines Werkzeug, mit dem man 3D-Modelle im nahinfraroten Bereich erfassen kann. Damit die Gesichtserkennung für den Benutzer funktioniert, müssen natürlich zuerst Referenzdaten im Telefon gespeichert werden.


Macwelt: Welche Vorteile hat eine derartige Gesichtserkennung?

Wolf: Zum einen ist ein solches Verfahren ziemlich robust gegenüber sogenannten Lagenveränderungen. Dies ist bei der konventionellen 2D-Gesichtserkennungnicht der Fall. Bei der 3D-Erfassung  ist es egal, wenn der Kopf nicht gerade in Richtung Kamera ausgerichtet ist, weil nach dieser Erfassung durch den Computer aus den Daten im Telefon  ein 3D-Modell berechnet wird. Das Telefon kann so letztendlich berechnen, wie das Gesicht aussehen würde, wenn man frontal in die Kamera schauen würde. Die Posen-Unabhängigkeit ist damit viel größer als bei 2D-Verfahren.

Ein anderer Vorteil ist der höhere Sicherheitsgrad. Auch das System wird man wahrscheinlich mit viel  Aufwand knacken können – aber nicht mit einem bedruckten Papier oder einem Foto oder einem auf dem Smartphone abgespielten Video. In diesem Fall würde die 3D-Kamera die flache Struktur erkennen.


Macwelt: Apple warb auf der Keynote damit, dass der Nutzer seine Augen während der Entsperrung auch geschlossen haben kann. Glauben Sie diesem Versprechen?

Wolf: Gängige Gesichtserkennungsverfahren brauchen meist die Augen, um Personen voneinander unterscheiden zu können. Die Augen sind das eines der wichtigsten Features im Gesicht. Da hebt sich der Algorithmus nicht sonderlich vom Menschen ab. Auch wir machen ganz viel an den Augen fest. Und die Augen kann man natürlich nur dann beurteilen, wenn sie offen sind. Ohne Augen geht es technisch gesehen aber prinzipiell auch.

Ich gehe davon aus, dass die Apple-Ingenieure einiges an Erfahrungen haben und solche Aspekte mit berücksichtigt wurden.

Alumni 1990 Abschluss Wolfgang Timm, Husum

http://www.psychologie.uni-heidelberg.de/alumni/alumni1990.html

http://www.chza.de/




***



Macwelt: Welche Nachteile verursacht die Face-ID-Gesichtserkennung?

Wolf: Die Rechenleistung, welche in den Smartphones erforderlich ist, wird höher sein. Der Prozessor auf dem Telefon muss deutlich mehr Arbeit verrichten als bei anderen Authentifikationsverfahren. Mit dem nahinfraroten Verfahren hat Apple außerdem mindestens zwei zusätzliche Hardware-Komponenten verbaut. Da wäre zum einen der Projektor, zum anderen die Infrarotkamera. Und die brauchen natürlich beide – und insbesondere der Projektor – Strom. Da werden sich die Ingenieure schon einiges überlegt haben müssen, um sicherzustellen, dass da nicht zu viel Strom verbraucht wird. Letztendlich wird die Hardware teurer und der Stromverbrauch des Geräts geht in die Höhe.


Macwelt: Was glauben Sie, weshalb Apple von der Fingerabdruckerkennung zur Gesichtserkennung gewechselt hat?

Wolf: Die beiden verschiedenen biometrischen Charakteristika sind Authentifikationsverfahren, bei der jedes seine Berechtigung hat und sich an verschiedenen Stellen unterschiedlich gut eignet. Was bei der einen Anwendung gut ist, ist bei der anderen wiederum nicht der Fall. Stellen Sie sich beispielsweise vor, Sie haben einen Beruf, in dem Sie Handschuhe tragen müssen. Da wird es mit der Erkennung des Fingerabdrucks schon schwieriger. Auf der anderen Seite arbeiten Sie vielleicht irgendwo, wo Schutzbrillen getragen werden müssen. Da wird es dann mit der Gesichtserkennung kompliziert. Es gibt keine Lösung für alles. Ich selbst habe ein Smartphone mit Fingerabdruckerkennung und es ist einfach sehr bequem und komfortabel. Und hier auf Gesichtserkennung umzusteigen, ist ein Angebot, welches sich aus Benutzersicht vermutlich als noch komfortabler herausstellen wird.

Wir dürfen ja auch nicht vergessen, dass Biometrie es uns letztendlich erlaubt, Sicherheitstechnologie bequem zu machen. Wenn Sie Ihr Telefon entsperren wollen, dann schauen Sie natürlicherweise auf das Telefon. Es ist daher überhaupt keine Veränderung des Nutzerverhaltens notwendig. Die PIN, Wisch-Code oder ein Fingerabdruck wird an dieser Stelle überflüssig. Bei so einem universellen Gegenstand wie einem Smartphone ist die Gesichtserkennung ein zusätzliches Angebot. Es gibt auf dem Markt ja auch Telefone, die mit einem Iris- -Erkennungssystem ausgestattet sind. Da wird man in Zukunft sehen, was die Kunden gerne möchten und was sie dann kaufen. Das ist letztendlich das Kriterium: Gefällt es mir als Kunde oder gefällt es mir nicht.


Macwelt: Ein Fingerabdruck ändert sich im Laufe des Lebens eigentlich nicht. Beim Gesicht sieht das durch den natürlichen Alterungsprozess oder Schönheitsoperationen schon anders aus. Wird das iPhone den Nutzer trotzdem erkennen können?

Wolf: Sogenanntes Template Aging gibt es grundsätzlich bei jedem biometrischen Verfahren mit unterschiedlicher Ausprägung. Biometrie bei Kindern wird insofern schwierig, weil junge Menschen sich teilweise zu schnell verändern. Da gibt es im Einzelfall auch Probleme mit der Erfassung der Merkmale. Das Erfassen des Fingerabdrucks eines Neugeborenen gestaltet sich beispielsweise recht kompliziert. Wobei ein Neugeborenes aber wahrscheinlich auch kein iPhone braucht... In der Gesichtserkennung gibt es aber schon mehr Aging-Prozesse als bei Fingerabdrücken. Da man als Nutzer aber letztendlich die Kontrolle über sein Gerät hat, bietet sich die Möglichkeit an, bei Problemen mit der Erkennung ganz einfach neue Referenzdaten zu erfassen. 


Macwelt: Wir leben in einer digitalen Gesellschaft, in der wir alle digitalisiert sind. Sehen Sie diesbezüglich potentielle Gefahren für den Nutzer? Wären Behörden beispielsweise mit dem Bau einer Maske in der Lage, die Geräte mit Face-ID zu entsperren?

Wolf: Die erste Frage, die sich hier stellt, lautet: Ist es möglich, derartige biometrische Systeme zu überwinden? Die Antwort: Ja, man kann letztendlich irgendwann jedes biometrische System überwinden. Das hängt davon ab, wie viel Aufwand man betreiben will. Wenn man eine Maske vor den Sensor hält, welche so aufwendig gestaltet ist, dass sie im nahinfraroten Bereich genau wie die Zielperson aussieht, dann könnte man damit wahrscheinlich  die Gesichtserkennung überwinden. Aber nochmal: Der Aufwand dafür wäre außerordentlich hoch.

Am Ende muss man eine Abwägung treffen: Welche Sicherheit braucht ein solches Authentifikationsverfahren? Ist das hier nur ein Sicherheitsverfahren oder handelt es sich dabei nicht doch eher um ein Komfortmerkmal? Der Nutzer wird ja nicht gezwungen, diese Technik anzuwenden. Letztendlich entscheidet jeder selbst.


Macwelt: Eine ganz spekulative Frage: Wann, denken Sie, wird sich der Chaos Computer Club melden und sagen, sie hätten die Face ID überlistet?

Wolf: Das ist wirklich Spekulation. Gestern, heute, morgen, nächstes Jahr? Im Ernst: Ich finde es gut und richtig, dass die Damen und Herren sich dieses Themas annehmen, einfach als Korrektiv. Und um den Benutzern bewusst zu machen, die Verwendung jeglicher Technologie Risiken birgt. Die sollte man als aufgeklärter Benutzer kennen und für sich prüfen, ob man diese Risiken eingehen will oder nicht. Ich kann mir schon denken, wie es geknackt werden wird.


Macwelt: Apple hat auf der Keynote behauptet, sie verwenden ein Raster mit 30.000 Punkten, um ein Gesicht zu identifizieren. Reicht das, um ein gewisses Sicherheitsniveau zu gewährleisten?

Wolf: Die Größenordnung von 30.000 Punkten, wie sie Apple erwähnt hat, wird für solche Muster völlig ausreichen. Man kann auch die Messgenauigkeit im Gesicht eines Menschen nicht beliebig nach oben verfeinern. Und selbst wenn, wird man die Menge nicht nutzen, weil sich die Gesichter ständig ändern. Wenn Apple Ingenieure aber im Stande sind, ein 3D-Modell aus 30.000 Punkten zusammen zu setzen, wäre  schon ziemlich detailliert. Die gängigen 3D-Gesichtserkennungsverfahren arbeiten in der Tat irgendwo in dieser Größenordnung.


Macwelt: Was uns verwundert hat, Apple hat ja behauptet, dass sie auf dem Gesicht deutlich mehr Datenpunkte feststellen können als zum Beispiel auf einer Fingerkuppe. Stimmt das?

Wolf: Das stimmt. Ein Mensch hat im Schnitt nicht mehr als sechzig Minutien auf einer Fingerkuppe. Meistens werden zwischen zwanzig und sechzig Minutien erfasst. Der Unterschied zwischen einem Gesicht und einer Fingerkuppe besteht darin, dass im Gesicht keine Minutien gibt, sondern Augen, Nase und Mund. Die Anordnungsmöglichkeiten bei diesen sind viel geringer als bei den Minutien, die sich ja irgendwo auf der Fingerkuppe befinden können. Deswegen braucht man im Gesicht eine viel größere Detailliertheit der Angaben, um ungefähr die gleiche Trennschärfe zu erreichen, die man bei einer Fingerkuppe quasi geschenkt bekommt. Technisch gesehen ist ein Fingerabdruckverfahren, wie es Apple und alle anderen Smartphone-Hersteller verwenden, einfacher als die Gesichtserkennung. Das Gesicht ist der bekannteste Teil eines Menschen, in einem iPhone oder anderem Smartphone übernimmt die Software die Erkennung, die wir als soziale Wesen schon immer gemacht haben. Hier stellt sich die Frage, wie die Software ein dreidimensionales Modell eines Gesichtes erstellen kann und wie sie sie mit den vorhandenen Referenzdaten abgleichen kann. Je mehr Datenpunkte für solches Modell vorhanden sind, desto besser kann ein Hersteller beispielsweise beim starken Sonnenlicht, wenn manche Punkte gar nicht sichtbar sind, diese Messfehler von einem Punkt zu dem anderen ausgleichen. Das projizierte Muster hilft der Software, die vorher gespeicherten Punkte im Gesicht wieder zu finden. Eine normale Kamera erfasst ja nur ein zweidimensionales Bild, auch im Infraroten. Diese erfassten Informationen sind für die dreidimensionale Gesichtserkennung zu wenig. Die zusätzlich erforderlichen Informationen beschafft dem Hersteller der Projektor mit Punkten oder anderen Mustern. Sobald Sie ein iPhone X in den Händen haben, können Sie herausfinden, welche Methode Apple verwendet: Mit dem iPhone auf das weiße Blatt Papier richten und mit der Nahinfrarotkamera Aufnahmen machen.


Macwelt: Apple hat ja versprochen, die Gesichtserkennung wird auch in Dunklem funktionieren. Wie zuverlässig kann das funktionieren?

Wolf: Wenn man sich das iPhone X anschaut, befindet sich ganz links die Infrarotkamera, daneben gibt es einen „Flood Illuminator“, dieser beleuchtet das Gesicht im Nahinfrarotspektrum. Soll heißen, das iPhone bringt eine eigene Infrarot-Beleuchtung mit. Vermutlich wird die Gesichtserkennung im Dunklen noch besser als bei einer ganz hellen Beleuchtung funktionieren, weil beim direkten Sonnenlicht beispielsweise die Punkte überstrahlt werden könnten und das natürlich stört. Das kann man an Fotos, aufgenommen im Gegenlicht, ganz gut sehen: Manche Stellen sind einfach weiß, andere aber auch schwarz.


Macwelt: Auf der Vorderseite des iPhones X befinden sich acht Elemente, die das True-Depth-System bzw. Kamera ausmachen. Können Sie einschätzen, welche Elemente zu der Gesichtserkennung beitragen?

Wolf: Wir bewegen uns im Bereich einer reinen Spekulation. Ich kann natürlich meine Meinung dazu sagen, aber ganz genau wird es  nur Apple wissen.

Die True Depth Kamera auf der Vorderseite des IPhone X.
VergrößernDie True Depth Kamera auf der Vorderseite des IPhone X.
© Apple


Macwelt: Fangen wir an mit dem Punktprojektor ganz rechts an .

Wolf: Das könnte der Musterprojektor sein, der im Nahinfrarotspektrum das Muster auf das Gesicht bringt. Die Kamera mit 7 Megapixeln Auflösung daneben könnte auch zu der Gesichtserkennung beitragen. Jeder Hersteller löst dies aber anders. Man kann das Bild der Kamera verwenden und mit den Informationen des Punktprojektors anreichern, aber an der Stelle ist das eine reine Spekulation. Ich könne mir ebenfalls vorstellen, dass die Apple-Ingenieure anhand der Infos von dem Umgebungslichtsensor die Stärke der Projektion regeln können. Üblicherweise dient so ein Sensor dazu, die Helligkeit des Bildschirmes zu steuern, diesen kann man ebenfalls dazu verwenden, um die Helligkeit des Projektors zu regulieren. Denn gleich daneben befindet sich ein sogenannter Flood Illuminator. Ich tippe darauf, dass Apple unter diesem Begriff die Infrarotbeleuchtung meint, damit das System nicht nur die Punkte im Gesicht erfasst, sondern auch einen visuellen Eindruck von dem Gesicht bekommt. Bei dem Näherungssensor könnte ich mir vorstellen, dass Apple nicht unbedingt will, dass die stromintensiven Bestandteile wie der Punktprojektor immer aktiv sind. Die würde man nur dann anschalten, wenn das Gerät erkennt, der Kopf des Nutzers kommt näher, der Nutzer möchte also das System entsperren. Die Infrarotkamera ganz links wird vermutlich dazu dienen, die Daten des Gesichts zu erfassen, also den allgemeinen visuellen Eindruck und das projizierte Muster. Wie gesagt, da ist jetzt sehr viel Spekulation dabei.


Macwelt: Haben Sie vielleicht noch eine Abschlussbemerkung für unsere Leser?

Wolf: Die meisten Nutzer werden die Entscheidung für oder gegen das Gerät wohl anhand der Überlegungen zur Sicherheit und Komfort treffen. Bei der Sicherheitsfrage muss man abschätzen, ob die gebotene Sicherheitsstufe für den konkreten Anwendungsfall ausreichend ist. Ganz klar, eine hundertprozentige Sicherheit gibt es nicht. Und man wird wohl auch den Zugang zu einem Banktresor nicht (nur) mit einem iPhone absichern. Aber um seinen Facebook-Account zu sichern oder die eigene Kontaktliste ist das System sicher genug. Die Schwarz-Weiß-Malerei bringt dabei nichts: Es wird natürlich die Nutzer geben, die sich das neue Gerät kaufen, egal was die Kritiker sagen. Aber auch das Gerät zu verdammen und zu behaupten, es bringt das Orwell'sche „1984“ näher, ist ebenfalls etwas übertrieben.


Macwelt: Herr Dr. Wolf, wir bedanken uns für das Gespräch.