Digitale Exzellenz
Digitale Exzellenz

Black Box Künstliche Intelligenz: Brauchen wir mehr Licht oder mehr Vertrauen?

, 4. März 2019

Lesezeit: 7 Minuten

Black Box Künstliche Intelligenz: Brauchen wir mehr Licht oder mehr Vertrauen?

Was geschieht innerhalb eines KI-Algorithmus? Vieles gleicht einer Blackbox. Können wir der Künstlichen Intelligenz trotzdem, wie anderen Menschen, intuitiv vertrauen? Oder ist das Blackbox-Problem ein Engpass für die allgemeine Akzeptanz von KI-Lösungen?

Künstliche Intelligenz hat uns bei vielen kognitiven Aufgaben bereits übertroffen, da sie Mengen an Daten verarbeiten kann, die ein menschliches Gehirn niemals verarbeiten könnte. Sie empfiehlt uns, welcher Film auf Netflix oder welches Lied auf Spotify am besten unseren Geschmack trifft. Wir akzeptieren die harmlosen Empfehlungen, ohne zu hinterfragen, warum uns eine Software zu einem Beyoncé-Song oder einer Beethoven-Sonate rät.

Aber wie ist das bei wichtigeren Entscheidungen? 2015 konnte das System namens Deep Patient im Mount Sinai Hospital in New York schon Patienten identifizieren, bei denen ein Risiko für Erkrankungen wie Krebs und Schizophrenie besteht. 2016 baute der Chiphersteller Nvidia ein autonomes Auto, das sich vollständig auf einen Algorithmus stützte, der das Fahren durch die Beobachtung eines Menschen gelernt hatte.

Beeindruckend – dennoch fehlt vielen das grundsätzliche Vertrauen in die Technologie. Grund dafür ist das mangelnde Wissen darüber, wie die KI Entscheidungen trifft: Wenn Deep Patient bei einem Patienten Schizophrenie diagnostiziert, kann es keine Auskunft geben, auf welchen Merkmalen in den Daten die Diagnose beruht. Wenn das autonome Nvidia-Auto vor der Entscheidung stehen würde, entweder einen Fußgänger auf der Straße zu überfahren oder den Fahrgast zu opfern, können die Schichten mathematischer Berechnungen nicht aufklären, wie und warum es seine Wahl so trifft.

Dieses Phänomen, bei dem niemand – nicht einmal der Programmierer, der den Code geschrieben hat, – weiß, wie der Algorithmus seine Entscheidungen trifft, wird Blackbox-Problem genannt. Obwohl es möglich ist, die Eingabe zu steuern und die Ausgabe in algorithmischen Systemen zu beobachten, ist bisher weitgehend unbekannt, was innerhalb der internen Schichten geschieht. Wenn zum Beispiel ein Algorithmus entscheidet, dass ein Bild eine Tür anstelle eines Fensters zeigt, ist unklar, nach welchen speziellen Regeln diese Entscheidung getroffen wurde. Dass die Glasfläche x% des Bildes und der Rahmen y% sein soll? Man weiß es nicht.

KI in der Pandemie

Auch bei der Bekämpfung der Corona-Pandemie werden Technologien auf Basis Künstlicher Intelligenz eingesetzt, deren Entscheidungen nicht immer erklärbar sind. So kann durch den Einsatz von Gesichts-Scans (beispielsweise in Eingangsbereichen) erkannt werden, ob eine Person unter Fieber leidet. Durch den KI-Einsatz wird dabei eine verlässliche Erkennung des menschlichen Körpers gewährleistet, und andere mögliche Wärmequellen, die zu Fehlalarmen führen könnten, werden als solche registriert. Wearables wie das Fitbit-Armband sind in der Lage, Grippesymptome zu erkennen und intelligente Chatbots, wie u. a. der Healthcare Bot von Microsoft, unterstützen bei der Einschätzung von Symptomen. Sie können eine sinnvolle Ergänzung oder auch eine Alternative sein, wenn – gerade zu Pandemiezeiten – zu wenig Ärzte zur Verfügung stehen, um alle Menschen mit Krankheitssymptomen zeitnah zu beraten.

KI kann darüber hinaus überprüfen, ob man sich die Hände richtig gewaschen hat, Infektionsketten können per App, wie mit der Corona-Warn-App oder der PEPP-PT-App, zurückverfolgt werden und es gibt sogar das Frühwarnsystem SmICS („Smart Infection Control System“), das eine komplette Echtzeit-Rückverfolgung ermöglicht. Dank Machine Learning kann die Entwicklung von Medikamenten beschleunigt, Risikogruppen können schneller identifiziert und sogar die nächste Pandemie vorhergesagt werden.

Spätestens durch die aktuelle Situation steht also die Frage im Raum, ob es sinnvoll ist, bei der Nutzung dieser Technologien zu zögern, weil man die Vorgänge der Blackbox nicht vollends durchblicken kann.

Ein Sprung ins Ungewisse

Interessanterweise erwarten wir nicht, dass unsere Mitmenschen ihre Denkprozesse immer erklären können. Stattdessen vertrauen wir anderen Menschen intuitiv. Dieses intuitive Vertrauen haben wir in künstliche Maschinen nicht – außer vielleicht bei Musik- und Filmempfehlungen. Vielleicht werden wir eines Tages diesen Sprung ins Ungewisse wagen und damit unsere Entscheidungen Millionen von Algorithmen überlassen. Aktuell sind wir glücklicherweise weit davon entfernt, unseren freien Willen an eine unbewusste Maschine abzugeben, ohne zu wissen, wie genau sie ihre Entscheidungen trifft. Wenn man das Blackbox-Problem nicht löst, fehlt der Entwicklung einer ansonsten vielversprechenden und nützlichen Technologie durch eine kritische Stimmung die nötige Akzeptanz. Nachvollziehbare KI-Ergebnisse, sichergestellt durch so gennannte Explainable Artificial Intelligence oder XAI, sind damit ein Muss – auch um compliant zu arbeiten. Unternehmen, die KI einsetzen, machen sich sonst angreifbar. Banken zum Beispiel, wenn sie ihren Kunden, ihren Anlegern oder eine Aufsichtsbehörde gegenüber nicht erklären können, warum der KI-gestützte Wertpapierberater einen bestimmten Fonds empfiehlt.

Es gibt bereits eingesetzte Strategien, um zu erfassen, was in solchen Systemen geschieht. 2015 haben die Google-Forscher einen Bilderkennungsalgorithmus mit Deep-Learning so modifiziert, dass Objekte nicht identifiziert, sondern generiert oder geändert werden. Wenn der Algorithmus in umgekehrter Reihenfolge ausgeführt wird, können die Forscher herausfinden, mit welchen spezifischen Merkmalen das Programm ein Gesamtbild erkennt. Das Projekt namens „Deep Dream“ produzierte unheimliche und fremdartige Bilder. Obwohl sie sich deutlich von der menschlichen Wahrnehmung unterscheiden, sind die Bilder nicht unergründlich: Ein Vogel ist definitiv ein Vogel und ein Berg ist ein Berg.

Been Kim, eine Wissenschaftlerin von Google Brain, beschäftigt sich mit der Entwicklung von KI-Software, die Erklärungen liefern sollen und bezeichnet sie als „Übersetzer für Menschen“. Kim und ihre Kollegen haben dafür das System Testing with Concept Activation Vectors (TCAV) entwickelt. „KI befindet sich an einem kritischen Moment“, erklärt Kim, „in dem die Menschheit zu entscheiden versucht, ob diese Technologie für uns gut ist oder nicht.“

Dem „TCAV Übersetzer“ kann ein Benutzer Fragen stellen, z.B. wie stark ein bestimmtes High-Level-Konzept im Argumentationsprozess in Betracht gezogen wurde. Wenn zum Beispiel ein Maschine-Learning-Algorithmus zur Identifizierung von Zebras in Bildern trainiert wird, kann eine Person mit TCAV bestimmen, wie viel Gewicht das System dem Begriff „Streifen“ zuweist, um zu entscheiden, ob ein Bild ein Zebra darstellt. Diese Art der Interpretierbarkeit bedeutet aber nicht, dass wir jedes einzelne Element des Modells verstehen werden, sondern dass wir genug verstehen werden, um uns bei der Verwendung des KI Tools sicherer zu fühlen.

AI und XAI gehören zusammen

Kann man der Blackbox also vertrauen? Pauschalisieren ist der falsche Ansatz. Es gilt, jeden Fall individuell zu betrachten, um einschätzen zu können, wann das Misstrauen begründet ist und wann der Nutzen der Technologie überwiegt – und der Fokus darauf liegen sollte, das System zu perfektionieren, um zeitnah gute Ergebnisse zu erzielen. Auf lange Sicht müssen aber zwei Interessensgebiete in Einklang gebracht werden. Das der Datenwissenschaftler und KI-Entwickler: Sie streben danach, jedes Problem mit Daten und Algorithmen zu lösen. Je akkurater ein KI-Diagnosesystem Krankheiten diagnostiziert oder je schneller es eine Pandemie eindämmen kann, desto besser. Auf der anderen Seite das der Benutzer von KI im Alltag. Sie sind stärker daran interessiert zu wissen, wie ein Modell eine bestimmte Vorhersage trifft, damit wir diesen Maschinen „vertrauen“ können. Beide Perspektiven zu berücksichtigen, erfordert neben der Entwicklung immer „schlauerer“ Algorithmen parallel die Forschung auf dem Gebiet Explainable AI (XAI) voranzutreiben. Zu jedem Algorithmus gehört ein Modell oder eine Dokumentation, mit sich seine „Denke“ nachvollziehen lässt. Kurz: AI und XAI gehören zusammen.

Linktipps:

https://www.wired.com/story/greedy-brittle-opaque-and-shallow-the-downsides-to-deep-learning/

https://medium.com/@GaryMarcus/the-deepest-problem-with-deep-learning-91c5991f5695

https://www.wired.com/story/how-to-teach-artificial-intelligence-common-sense/

https://amitray.com/7-limitations-of-deep-learning-algorithms-of-ai/

https://medium.com/intuitionmachine/has-deep-learning-hit-a-wall-ec6a7cc82cb3

https://www.itproportal.com/features/the-promise-and-pitfalls-of-ai-and-deep-learning/

https://medium.com/datadriveninvestor/the-black-box-problem-of-ai-33d261805435

https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/

https://www.technologyreview.com/s/612746/a-neural-network-can-learn-to-organize-the-world-it-sees-into-conceptsjust-like-we-do/

https://www.quantamagazine.org/been-kim-is-building-a-translator-for-artificial-intelligence-20190110/

https://www.bigdata-insider.de/so-helfen-ki-modelle-und-algorithmen-im-kampf-gegen-das-corona-virus-a-929623/

https://www.management-krankenhaus.de/topstories/it-kommunikation/ki-versus-corona-wie-intelligente-robotik-unterstuetzen-kann

Foto: Getty Images / DNY59