Black Box Künstliche Intelligenz: Brauchen wir mehr Licht oder mehr Vertrauen?

Black Box Künstliche Intelligenz: Brauchen wir mehr Licht oder mehr Vertrauen?
Yirou Chen
durch

Was geschieht innerhalb eines KI-Algorithmus? Vieles gleicht einer Blackbox. Können wir der Künstlichen Intelligenz trotzdem, wie anderen Menschen, intuitiv vertrauen? Oder ist das Blackbox-Problem ein Engpass für die allgemeine Akzeptanz von KI-Technologie?

Künstliche Intelligenz hat uns bei vielen kognitiven Aufgaben bereits übertroffen, da sie Mengen an Daten verarbeiten kann, die ein menschliches Gehirn niemals verarbeiten könnte. Sie empfiehlt uns, welcher Film auf Netflix oder welches Lied auf Spotify am besten unseren Geschmack trifft. Wir akzep-tieren die harmlosen Empfehlungen, ohne zu hinterfragen, warum uns eine Software zu einem Beyoncé-Song oder einer Beethoven-Sonate rät.

Aber wie ist das bei wichtigeren Entscheidungen? 2015 konnte das System namens Deep Patient im Mount Sinai Hospital in New York schon Patienten identifizieren, bei denen ein Risiko für Erkrankungen wie Krebs und Schizophrenie besteht. 2016 baute der Chiphersteller Nvidia ein autonomes Auto, das sich vollständig auf einen Algorithmus stützte, der das Fahren durch die Beobachtung eines Menschen gelernt hatte.

Beeindruckend. Aber nicht ohne Vorbehalt. Wenn Deep Patient bei einem Patienten Schizophrenie diagnostiziert, kann es keine Auskunft geben, auf welchen Merkmalen in den Daten die Diagnose beruht. Wenn das autonome Nvidia-Auto vor der Entscheidung stehen würde, entweder einen Fußgänger auf der Straße zu überfahren oder den Fahrgast zu opfern, können die Schichten mathematischer Berechnungen nicht aufklären, wie und warum es seine Wahl so trifft.

Dieses Phänomen, bei dem niemand – nicht einmal der Programmierer, der den Code geschrieben hat, – weiß, wie der Algorithmus seine Entscheidungen trifft, wird Blackbox-Problem genannt. Obwohl es möglich ist, die Eingabe zu steuern und die Ausgabe in algorithmischen Systemen zu beobachten, ist bisher weitgehend unbekannt, was innerhalb der internen Schichten geschieht. Wenn zum Beispiel ein Algorithmus entscheidet, dass ein Bild eine Tür anstelle eines Fensters zeigt, ist unklar, nach welchen speziellen Regeln diese Entscheidung getroffen wurde. Dass die Glasfläche x% des Bildes und der Rahmen y% sein soll? Man weiß es nicht.

Ein Sprung ins Ungewisse, oder?

Interessanterweise erwarten wir nicht, dass unsere Mitmenschen ihre Denkprozesse immer erklären können. Stattdessen vertrauen wir anderen Menschen intuitiv. Dieses intuitive Vertrauen haben wir in künstliche Maschinen nicht – außer vielleicht bei Musik- und Filmempfehlungen. Vielleicht werden wir eines Tages diesen Sprung ins Ungewisse wagen und damit unsere Entscheidungen Millionen von Algorithmen überlassen. Aktuell sind wir glücklicherweise weit davon entfernt, unseren freien Willen an eine unbewusste Maschine abzugeben, ohne zu wissen, wie genau sie ihre Entscheidungen trifft. Wenn man das Blackbox-Problem nicht löst, fehlt der Entwicklung einer ansonsten vielversprechenden und nützlichen Technologie durch eine kritische Stimmung die nötige Akzeptanz. Nachvollziehbare KI-Ergebnisse, sichergestellt durch so gennannte Explainable Artificial Intelligence oder XAI, sind damit ein Muss – auch um compliant zu arbeiten. Unternehmen, die KI einsetzen, machen sich sonst angreifbar. Banken zum Beispiel, wenn sie ihren Kunden, ihren Anlegern oder eine Aufsichtsbehörde gegenüber nicht erklären können, warum der KI-gestützte Wertpapierberater einen bestimmten Fonds empfiehlt.

Es gibt bereits eingesetzte Strategien, um zu erfassen, was in solchen Systemen geschieht. 2015 haben die Google-Forscher einen Bilderkennungsalgorithmus mit Deep-Learning so modifiziert, dass Objekte nicht identifiziert, sondern generiert oder geändert werden. Wenn der Algorithmus in umgekehrter Reihenfolge ausgeführt wird, können die Forscher herausfinden, mit welchen spezifischen Merkmalen das Programm ein Gesamtbild erkennt. Das Projekt namens „Deep Dream“ produzierte unheimliche und fremdartige Bilder. Obwohl sie sich deutlich von der menschlichen Wahrnehmung unterscheiden, sind die Bilder nicht unergründlich: Ein Vogel ist definitiv ein Vogel und ein Berg ist ein Berg.

Been Kim, eine Wissenschaftlerin von Google Brain, beschäftigt sich mit der Entwicklung von KI-Software, die Erklärungen liefern sollen und bezeichnet sie als „Übersetzer für Menschen“. Kim und ihre Kollegen haben dafür das System Testing with Concept Activation Vectors (TCAV) entwickelt. „KI befindet sich an einem kritischen Moment,“ erklärt Kim, „in dem die Menschheit zu entscheiden versucht, ob diese Technologie für uns gut ist oder nicht.“

Dem „TCAV Übersetzer“ kann ein Benutzer Fragen stellen, z.B. wie stark ein bestimmtes High-Level-Konzept im Argumentationsprozess in Betracht gezogen wurde. Wenn zum Beispiel ein Maschine-Learning-Algorithmus zur Identifizierung von Zebras in Bildern trainiert wird, kann eine Person mit TCAV bestimmen, wie viel Gewicht das System dem Begriff „Streifen“ zuweist, um zu entscheiden, ob ein Bild ein Zebra darstellt. Diese Art der Interpretierbarkeit bedeutet aber nicht, dass wir jedes einzelne Element des Modells verstehen werden, sondern dass wir genug verstehen werden, um uns bei der Verwendung des KI Tools sicherer zu fühlen.

AI und XAI gehören zusammen

Um die nächsten KI-Schritte gehen zu können, müssen somit zwei Interessensgebiete in Einklang gebracht werden. Das der Datenwissenschaftler und KI-Entwickler: Sie streben danach, jedes Problem mit Daten und Algorithmen zu lösen. Je akkurater ein KI-Diagnosesystem Krankheiten diagnostiziert, desto besser. Auf der anderen Seite das der Benutzer von KI im Alltag. Sie sind stärker daran interessiert zu wissen, wie ein Modell eine bestimmte Vorhersage trifft, damit wir diesen Maschinen „vertrauen“ können. Beide Perspektiven zu berücksichtigen, erfordert neben der Entwicklung immer „schlauerer“ Algorithmen parallel die Forschung auf dem Gebiet Explainable AI (XAI) voranzutreiben. Zu jedem Algorithmus gehört ein Modell oder eine Dokumentation, mit sich seine „Denke“ nachvollziehen lässt. Kurz: AI und XAI gehören zusammen.

Linktipps:

https://www.wired.com/story/greedy-brittle-opaque-and-shallow-the-downsides-to-deep-learning/

https://medium.com/@GaryMarcus/the-deepest-problem-with-deep-learning-91c5991f5695

https://www.wired.com/story/how-to-teach-artificial-intelligence-common-sense/

https://amitray.com/7-limitations-of-deep-learning-algorithms-of-ai/

https://medium.com/intuitionmachine/has-deep-learning-hit-a-wall-ec6a7cc82cb3

https://www.itproportal.com/features/the-promise-and-pitfalls-of-ai-and-deep-learning/

https://medium.com/datadriveninvestor/the-black-box-problem-of-ai-33d261805435

https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/

https://www.technologyreview.com/s/612746/a-neural-network-can-learn-to-organize-the-world-it-sees-into-conceptsjust-like-we-do/

https://www.quantamagazine.org/been-kim-is-building-a-translator-for-artificial-intelligence-20190110/

 

Foto: Getty Images / DNY59


Yirou Chen

Yirou Chen ist seit Juli 2018 Werkstudentin im DigiLab von Sopra Steria Consulting am Standort Frankfurt. Sie studiert Consumer Affairs mit Schwerpunkt Consumer, Technologie & Innovation an der Technischen Universität München. Hier bloggt sie speziell über KI-Trendthemen in China.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.