Digitale Exzellenz
Digitale Exzellenz

Affective Computing: Algorithmen als Helfer der Grenzpolizei

, 16. September 2019

Lesezeit: 3 Minuten

Affective Computing: Algorithmen als Helfer der Grenzpolizei

Künstliche Intelligenz (KI) weckt derzeit große Erwartungen. Dazu gehört, dass Algorithmen schon bald in der Lage sein werden, Gefühle und Stimmungen zu erkennen.  Ziel solcher Affective Computing genannten Fähigkeiten ist, zum Beispiel genervten Autofahrern eine Pause vorzuschlagen, Sicherheitsbehörden bei der Suche nach Straftätern zu unterstützen oder Autisten zu helfen, ihre Umwelt zu verstehen, um besser mit ihr kommunizieren zu können. Einige dieser Anwendungsszenarien werden bereits erprobt.

Noch klappt das mit der Gefühlserkennung oder dem Gedankenlesen von Maschinen noch nicht wirklich. Zumindest legt das ein Fundstück auf dem Nachrichtenportal The Intercept über den so genannten Silent Talker nahe. Silent Talker ist eine Art virtueller Grenzpolizist, der Reisenden Fragen stellt: „Wie heißen Sie?“, „Welche Staatsbürgerschaft besitzen Sie?“, „Was ist der Zweck Ihrer Reise?“. Insgesamt 16 Fragen umfasst der Katalog des Bots, den Reisende (bislang freiwillig!) auf ihren Smartphones installieren und der über die Webcam nach verräterischen Gesichts- und Augenbewegungen der antwortenden Reisenden forscht, die er als Anzeichen für Lügen interpretiert. Am Ende der Befragung erstellt der virtuelle Beamte einen QR-Code, der anschließend von einem echten Zöllner eingescannt wird. Hält der Silent Talker einen Reisenden für einen Lügner, kann diese Bewertung weitere Kontrollen nach sich ziehen und im schlimmsten Fall sogar die Verweigerung der Einreise. Wie der Algorithmus zu dieser Bewertung kommt, weiß niemand so genau. So wird es schwierig sein, seiner Einschätzung zu widersprechen.

Ernstzunehmende Forschung oder Pseudowissenschaft?

Silent Talker ist Teil eines mit rund 4,5 Millionen Euro von der EU geförderten Forschungsprogramms an der englischen Manchester Metropolitan University. Die Wissenschaftler dort behaupten, dass die „iBorderCtrl“ genannte Technologie Mikrogesten aufnehmen und analysieren kann – mit einer Genauigkeit von 75 Prozent. Allerdings war die Gruppe der Testteilnehmer nur 32 Personen stark und die Forscher stellten fest, dass die Gruppe in Bezug auf Ethnizität und Geschlecht unausgewogen war, da es weniger asiatische oder arabische Teilnehmer als weiße Europäer und weniger Frauen als Männer gab.

Die Technologie ist auch aus anderen Gründen umstritten: Ein Professor für Kriminalistik an der University of Derby, der auf Methoden zur Erkennung von Täuschungen spezialisiert ist, findet die Erkenntnisse von iBorderCtrl „nicht glaubwürdig“, weil es keine Beweise dafür gebe, dass die Überwachung von Mikrogesten im Gesicht von Menschen überhaupt eine gute Methode zur Messung des Lügens sei. Er wirft den Manchester-Kollegen sogar vor, pseudowissenschaftliche Erkenntnisse zu nutzen.

Transparenz ist absolut erfolgskritisch

Scheitern könnte die Technologie am Ende aber nicht an diesen Kritikpunkten, sondern schlicht an der mangelnden Transparenz, die nicht nur in der Nachvollziehbarkeit ihrer Entscheidungen liegt. Auch das Forschungsprojekt selbst genügt öffentlichen Anforderungen nach Transparenz nicht, wie sie zum Beispiel von Anbietern wie Microsoft und IBM gefordert werden: Forscher aus Mailand haben im Rahmen des Informationsfreiheitsgesetzes Unterlagen des Programms angefordert, erhielten aber nur großteils geschwärzte Seiten.

Transparenz ist jedoch absolut erfolgskritisch für die Akzeptanz von KI in einer zweifelnden Gesellschaft. Nur, wenn es die gibt, lassen sich berechtigte Zweifel zerstreuen und Kritiker einfangen, die befürchten, dass der Algorithmus voreingenommen sein könnte und zum Beispiel bestimmte Ethnien diskriminieren könnte. Jede kommende Entwicklung auf dem Gebiet Affektive Computing im Speziellen und Künstliche Intelligenz im Allgemeinen muss sich an dem Kriterium Transparenz messen lassen, um sich durchzusetzen.

Foto: Getty Images / vchal