Anzeige
Anzeige
Anzeige
Anzeige
Yvonne Göpfert KI Gesichtserkennung

Wer ist der schönste Bond im Land?

Attraktivität beurteilen, Handys entsperren, mobiles Bezahlen ermöglichen. Oft ist der Einsatz von Gesichtserkennung auf Basis von künstlicher Intelligenz von Vorteil. Bei der Verbrechensbekämpfung sieht das anders aus.

Eine KI hat entschieden: Der hässlichste Bond-Darsteller ist Daniel Craig (Bild: Getty Images/Franziska Krug)
Anzeige
Anzeige
Anzeige

Daniel Craig soll der hässlichste James Bond aller Zeiten sein. Zu diesem Ergebnis kam das Centre For Advanced Facial Cosmetic and Plastic Surgery in London. Das Institut hat Fotos von allen Bond-Darstellern per Bildanalyse mit dem griechischen Idealgesicht verglichen (ihr wisst schon – diese griechischen Statuengesichter mit der markanten Nase).

Ergebnis: Bei Craig fehlte es an Ebenmäßigkeit. Er bekam nur 84,2 Prozent der Beautypunkte. Heidi hätte wohl kein Foto für ihn. Platz eins soll übrigens Sean Connery mit 89,9 Prozent Beautypunkten errungen haben, gefolgt von Roger Moore mit 88,8 Prozent.

Gesichtserkennung, die uns bei so Spielereien wie der Bond-Gesichter noch ein Lächeln abringt (oder eine Zornesfalte auf die Stirn treibt – je nachdem wie sehr wir Daniel Craig schätzen) ist aber noch zu ganz anderen Leistungen fähig. Stichwort: Verbrechens- und Terrorbekämpfung.

Rasterfahndung mit Hilfe von künstlicher Intelligenz

Es ist erst ein paar Monate her, dass ein Test am Bahnhof Berlin Südkreuz die Gemüter erregte. Denn die Berliner Polizei testete wie gut ihre Software aus den vorübereilenden Menschenströmen gesuchte Personen – in diesem Fall 300 freiwilligen Probanden - herausfiltern konnte.

Anzeige

Künstliche Intelligenz soll es richten. Von jedem Probanden wurde daher das Gesicht eingescannt und mit einem Punkteraster versehen. Die Abstände zwischen diesen Punkten ergeben das typische Muster für ein individuelles Gesicht – wichtig sind dabei vor allem definierte Punkte rund um Augen, Mund und Nase. Für das Projekt in Berlin wurden 14 Gesichtspunkte erfasst. Nun mussten diese 300 Gesichter aus der Masse herausgefiltert werden – ein Fall für einen KI-Algorithmus.

Das Ergebnis: Die Treffsicherheit ist einigermaßen gegeben, solange kein Störfaktor wie ein Kopftuch, ein Hut oder eine Sonnenbrille die KI hinters Licht führt. Der Aufschrei galt daher auch dem Generalverdacht, unter dem damit die Bürger stehen, weil sie ja alle gescannt werden. Denn was, wenn ein Mensch anhand der Scans versehentlich verhaftet wird?

Um also bei der Gesichtserkennung nicht daneben zu liegen, müssen die Wissenschaftler die Software weiter trainieren. Für die Rasterfahndung bräuchte es also zusätzlich große Gesichtsdatenbanken. Die Fotos müssten mit Schirm, Charme und Melone beziehungsweise Hut, Schal und Sonnenbrille in die Gesichtserkennung mit einbezogen werden. Doch die stehen heute noch nicht zur Verfügung. Alternativ lässt sich die Mustererkennung auch auf Gang, Haltung oder die Stimme ausdehnen. Aber auch hier braucht es erst einmal Daten.

Und egal, über welche KI-Thema wir heute diskutieren – wenn die Datenlage dünn oder die Daten fehlerhaft sind -, sind auch die Ergebnisse falsch bis unbrauchbar. Doch selbst bei perfekter Datenlage und 100 Prozent richtiger Erkennung bleibt ein Problem: Was wenn die Daten eines Tages gegen uns verwendet werden – und wir beispielsweise als unliebsame Demonstranten enttarnt werden?

Das russische Facebook findet dich

Ein anderer, wenig schöner Gedanke: Was, wenn jemand im Netz unsere Fotos, die wir irgendwann mal hochgeladen haben, heranzieht und auswertet? So ein Dienst ist Findfaces aus Russland, wie die Berliner Morgenpost berichtet. Einfach ein digitales Foto bei dem "Service" hochladen und der Algorithmus geht auf Spurensuche im Netz und spuckt alle Doppelgänger aus, die er finden kann – oft samt Namen und Kontaktdaten. Als Vergleichsdatenbank dient das russische Facebook VKontakte. Ein Dienst wie dieser lässt sich jederzeit auf das westliche Facebook ausweiten.

Gefunden werden - obwohl du das gar nicht möchtest - ist eine Sache. Doch was, wenn deine Körperdaten bestimmten Merkmalen zugeschrieben werden? Forscher der Stanford University haben 35.000 Fotos einer Dating-Plattform als Datengrundlage herangezogen, um mit Hilfe von KI zu ermitteln, ob ein Mensch schwul oder hetero ist. Die Trefferquote, mit der die künstliche Intelligenz Heteros und Schwule identifizierte, lag bei Männern 81 Prozent und 71 Prozent bei Frauen. Menschen lagen in einem Vergleichstest um 20 Prozent häufiger daneben. In China wiederum soll künstliche Intelligenz anhand von Gesichtsausdrücken bereits Straftaten vorhersagen können – wie zwei chinesische Forscher von der Jiao Tong University in Shanghai herausgefunden haben wollen.

Dazu analysierten die Forscher 1.856 Passfotos von chinesischen Männern im Alter zwischen 18 und 55 Jahren, die Hälfte der Fotografierten war straffällig geworden. Anhand der Krümmung der Oberlippe, dem Augenabstand sowie der Mundbreite, wurde ein biometrischer Wert berechnet. Dieser wurde herangezogen, um eine Aussage über Verbrecher mit "Ja" oder "Nein" zu treffen. Auf Grundlage dieser Parameter soll die KI in knapp 90 Prozent der Fälle richtig gelegen haben.

Welche gesellschaftlichen Folgen hat der Einsatz von KI?

Und hier wird es wirklich kritisch. Was ist die Folge, wenn Computerprogramme nicht nur auf Menschen programmiert werden, sondern auch – mithilfe von Millionen eingespeister Beispielköpfe – Menschen feste Eigenschaften zuschreiben? Hier würden mit größter Wahrscheinlichkeit Vorurteile in den Algorithmus einfließen, die der Algorithmus dann brav lernt und verfestigt. Das liegt am System: KI soll ja klassifizieren. Klassifizierung heißt aber, eine Gruppe von Menschen in Gruppen einteilen, die bestimmte Merkmale haben.

"Die KI soll eine Gruppe beispielsweise aufteilen in Kriminelle, Nicht-Kriminelle, Terroristen, Nicht-Terroristen, gute Bürger, schlechte Bürger. Das heißt, wir kommen hier über die KI zu einem Selektionsmechanismus. Und dadurch, dass die Selektion mit statistischen Wahrscheinlichkeiten arbeitet, werden hier inherent auch Fehler passieren. Es kann also sein, dass du der Gruppe schlechter Bürger zugeordnet wirst, aber eigentlich ein guter Bürger bist", sagt Yvonne Hofstetter, Autorin des Bestsellers Sie wissen alles, das sich mit dem Thema Überwachung durch Big Data im Zeitalter der Digitalisierung beschäftigt.

Letzten Endes bleibt also immer zu fragen: Wer nutzt die Daten? Und entspricht die Datenverarbeitung ethischen Wertvorstellungen? Insofern brauchen wir im Zeitalter von Künstlicher Intelligenz auf jeden Fall eine moralische Debatte, was erlaubt sein soll und wo man KI Grenzen setzen muss. Denn dass KI unweigerlich zur totalen Überwachung führt, ist auch wieder zu schwarz gedacht.

Wir brauchen eine Debatte über künstliche Intelligenz

Nutzungsszenarien wie Smartphone per Gesichtserkennung entsperren – die Trefferquote von Googles FaceNet soll bei 99,96 Prozent liegen – findet sicher ihre Anhänger. Und auch der Versuch am Singles Day 2017 in China – wo chinesische Kunden in 100.000 Smart Stores per Gesichtserkennung zahlen konnten -, wurde angenommen. Das Vorantreiben künstlicher Intelligenz wird sich nicht aufhalten lassen.

Und genau deshalb müssen Nutzungsszenarien in der Öffentlichkeit diskutiert, bewertet und Fluch und Segen abgewogen werden. Ohne völlig zu verteufeln. Aber mit einer gewissen Vorsicht.

Anzeige
Anzeige
Verlagsangebot
Anzeige
Anzeige
Aktuelle Stellenangebote
Alle Stellenangebote