Maschinelles Lernen hilft bei der Gesichtserkennung

| Redakteur: Hendrik Härter

Mit neuronalen Netzen lassen sich manipulierte Bilder erkennen. Die Illustration zeigt einen Face-Morphing-Angriff. Von links nach rechts: Originalbilder, Mitte: Morphing-Angriff.
Mit neuronalen Netzen lassen sich manipulierte Bilder erkennen. Die Illustration zeigt einen Face-Morphing-Angriff. Von links nach rechts: Originalbilder, Mitte: Morphing-Angriff. (Bild: Fraunhofer HHI)

Mit entsprechend trainierten neuronalen Netzen wollen Forscher gefälschte Gesichter zuverlässig erkennen. Sie verwenden dazu einen eigens entwickelten Algorithmus, um Unstimmigkeiten in einem Gesicht zu erkennen.

Mit einer automatisierten Gesichtserkennung lassen sich Smartphones entsperren oder Eingänge von sensiblen Bereichen wie Flughäfen kontrollieren. Doch wie sicher ist die Authentifizierungsmethode über das menschliche Gesicht? Denn mit genügend krimineller Energie lassen sich Gesichtserkennungssysteme austricksen, wenn zwei Personen denselben Pass verwenden. Davon berichtet Lukasz Wandzik. Er ist Wissenschaftler am Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik IPK in Berlin. Gemeinsam mit seinen Kollegen vom Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI und weiteren Partnern entwickelt er Verfahren, die Bildanomalien erkennen, die bei der digitalen Bildverarbeitung in Morphing-Prozessen auftreten.

„Der Morphing-Angriff wird ausgeführt, indem zwei Gesichtsbilder zu einem synthetischen Gesichtsbild verschmolzen werden, das die Eigenschaften beider Personen enthält“, erklärt Wandzik. Mit diesem Foto im Reisepass werden beide Personen durch ein biometrisches Gesichtserkennungssystem authentifiziert. Die Attacken könnten beispielsweise vor oder beim Beantragen von Ausweisen stattfinden. Im Rahmen des Projekts ANANAS (Anomalie-Erkennung zur Verhinderung von Angriffen auf gesichtsbildbasierte Authentifikationssysteme), erforschen und analysieren die Wissenschaftler simulierte Bilddaten.

Bildverarbeitung und Maschinelles Lernen

Dabei werden moderne Methoden der Bildverarbeitung und des maschinellen Lernens angewandt, insbesondere tiefe neuronale Netze, die explizit für die Verarbeitung von Bilddaten konzipiert wurden. Diese komplexen Netze bestehen aus zahlreichen Ebenen, die in vielschichtigen Strukturen miteinander verknüpft sind. Sie beruhen auf Verbindungen zwischen mathematischen Berechnungseinheiten und bilden die Neuronenstruktur des menschlichen Gehirns nach.

Um die zu entwickelnden Verfahren und Systeme testen zu können, erzeugen die Projektpartner im ersten Schritt die Daten, mit denen die bildverarbeitenden Programme trainiert werden, um Manipulationen zu erkennen. Hierfür werden verschiedene Gesichter zu einem gemorpht. „Um zu entscheiden, ob ein Gesichtsbild authentisch ist oder durch einen Morphing-Algorithmus erstellt wurde, haben wir tiefe neuronale Netze auf gemorphte und reale Gesichtsbilder trainiert. Diese können manipulierte Bilder anhand der dadurch entstehenden Veränderungen erkennen, speziell auch in semantischen Bereichen wie in Gesichtsmerkmalen oder Glanzlichtern in den Augen“, erläutert Prof. Peter Eisert, Abteilungsleiter Vision & Imaging Technologies am Fraunhofer HHI, die Vorgehensweise.

Algorithmen identifizieren manipulierte Bilder

Die neuronalen Netze entscheiden, ob es sich um echte oder gefälschte Bilder handelt. Die Trefferquote bei den im Projekt erstellten Testdatenbanken liegt bei über 90%. Allerdings wissen die Forscher nicht, wie das Neuronale Netz die Entscheidung getroffen hat. Neben einer Entscheidung über die Echtheit eines Bildes ist auch der Entscheidungsgrund wichtig. Dazu analysieren die Forscher mit eigens entwickelten LRP-Algorithmen (Layer-Wise Relevance Propagation) die Regionen im Gesichtsbild, die für die Entscheidung relevant sind. Damit lassen sich verdächtige Bereiche in einem Gesichtsbild finden, und Artefakte zu identifizieren und zu klassifizieren, die während eines Morphing-Prozesses erzeugt wurden.

Die Algorithmen identifizieren erfolgreich gemorphte Bilder, wie erste Referenztests bestätigen. Relevante Gesichtsbereiche für eine Entscheidung kennzeichnet die LRP-Software entsprechend. Häufig geben die Augen Hinweise, ob es sich um eine Fälschung handelt. Die Forscher nutzen diese Informationen auch, um die neuronalen Netze robuster zu gestalten. Dann lassen sich unterschiedliche Angriffsmethoden erkennen. Leider greifen die Kriminellen auf immer ausgefeiltere Angriffsmethoden zurück wie auf KI-Verfahren, die komplett künstliche Gesichtsbilder erzeugen. Mit optimierten neuronalen Netze versuchen die Wissenschaftler dagegenzuhalten und den Fälschern einen Schritt voraus zu sein, damit zukünftige Attacken schnell identifiziert werden.

Datenbank mit 2000 Individuen

Für die Erstellung und Tests der Gesichtsmorphs haben die Forscher des Fraunhofer-Instituts eine Datenbank mit ungefähr 2000 Individuen und jeweils unterschiedlichen Bildern genutzt. Darin sind auch verschiedenste Ethnien enthalten. Für das Morphing der Gesichter nutzen die Forscher allerdings möglichst ähnliche Gesichter, sodass jeweils Paare mit gleichem Geschlecht, Datenbank und Ethnie erstellt werden.

„Allerdings beschäftigen wir uns nicht mit der Gesichtserkennung selbst, obwohl diese sehr stark von den in der Datenbank enthaltenen Gesichtern abhängig ist“, sagt Prof. Peter Eisert vom Fraunhofer HHI abschließend.

Dossier: Künstliche Intelligenz in der Industrie

Basiswissen Künstliche Intelligenz und Maschinelles Lernen

Das Vorurteil der Maschine – die wahre Gefahr ist nicht nachvollziehbare KI

Das Vorurteil der Maschine – die wahre Gefahr ist nicht nachvollziehbare KI

03.02.19 - Gängige Bedrohungsszenarien zur Künstlichen Intelligenz warnen vor ihren vermeintlich überlegenen Fähigkeiten. Die wahre Gefahr liege aber eher in ihrer Überschätzung und im blinden Vertrauen in die ihre nur scheinbare Objektivität, meinen Chemnitzer Professoren. Sie plädieren: KI muss nachvollziehbar sein! lesen

Gestenerkennung hält Einzug in die industrielle Messtechnik

Gestenerkennung hält Einzug in die industrielle Messtechnik

29.10.18 - Werden Prüfingenieure künftig ihre Messtechnik über Gesten und mit Gesichtserkennung bedienen und steuern? Einen preiswerten Einstieg in die Welt der Vision-Sensoren verspricht Omron. lesen

Dilemma beim KI-Training: Wann ist gründlich gründlich genug?

Dilemma beim KI-Training: Wann ist gründlich gründlich genug?

26.06.18 - Ist es ein Gesicht, oder ein Ventilator? Eigentlich sollte dieser Unterschied eindeutig sein. Und doch habe ich nun schon öfter neuronale Netzwerke in Aktion erlebt, die eine solche Unterscheidung treffen sollten – und scheiterten. lesen

Amazons Personal-KI diskriminierte Frauen

Amazons Personal-KI diskriminierte Frauen

11.10.18 - Seit 2014 hatte Amazon ein KI-Projekt zum Anwerben neuer Mitarbeiter in der Entwicklung. Das Problem: Die Künstliche Intelligenz brachte sich selber bei, Frauen anhand von Schlüsselwörtern gegenüber Männern zu benachteiligen. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46178989 / KI/Machine Learning)