Digitale Exzellenz
Digitale Exzellenz

Künstliche Intelligenz: Neuer Job, nicht neuer Mensch

, 11. September 2017

Lesezeit: 5 Minuten

Künstliche Intelligenz: Neuer Job, nicht neuer Mensch

Vergangene Woche haben wir unseren Aufruf zur Blogparade Künstliche Intelligenz (#KIParade) gestartet. Bis zum 16. Oktober freuen wir uns auf spannende KI-Blogposts und Linkedin-Artikel. Alternativ funktioniert auch ein Gastbeitrag hier bei uns im Blog. So wie der von Diederik Sutorius. Der Geschäftsführer der VOV Versicherung sieht in der künstlichen Intelligenz definitiv keinen Ersatz für uns Menschen. Hier sein Gastartikel. 

Künstliche Intelligenz: Neuer Job, nicht neuer Mensch

Bis 2030 fällt laut PwC jeder dritte Job in Deutschland der künstlichen Intelligenz zum Opfer. Gut zehn Jahre später sind es in den weit entwickelten Ländern der Erde gut die Hälfte, prognostiziert die Universität Oxford – in einer „Pi-mal-Daumen“-Studie, wie die Zeit kritisiert. Zweifel sind auch aus versicherungstechnischer Sicht angebracht.

Wer bietet mehr? Diesen Wettbewerb scheinen die KI-Versteher unbedingt gewinnen zu wollen. Sie übersehen dabei eine Vorbedingung, die sie implizit unterstellen müssen: Der Mensch werde dann gar nicht mehr gebraucht. Doch das ist unwahrscheinlich. Versicherer versichern Risiken. Wer sich dabei allein auf Computermodelle verlässt, setzt sich also dem Risiko aus, sich allein auf Computermodelle zu verlassen. Das klingt paradox. Ist es auch: Bislang hat der Mensch – im Falle der Assekuranzen: das Berufsbild der Underwriter – basierend auf Erfahrung, Marktverständnis und auch Intuition Risiken bewertet und diese gedeckt.

Wenn solche Aufgaben zukünftig eine Maschine übernehmen soll, stellt sich beispielsweise die Frage, wer für die statistische Fehlerwahrscheinlichkeit von Maschinenmodellen aufkommt. Und wer haftet, wenn sich zeigen ließe, dass fehlerhafte Modelle zu unbegründeten Risikoaufschlägen geführt haben oder auch nur führen könnten?

KI als Sparringspartner

Unbestreitbar gewinnen Unternehmen durch den Einsatz von künstlicher Intelligenz vor allem eins, nämlich Zeit. Wer lernende Maschinen mit den richtigen Daten füttert, kann Szenarien durchrechnen lassen und sich viel besser darauf vorbereiten, was die Zukunft bereithält. In Zeiten immer kürzerer Innovationszyklen lassen sich unternehmerische Entscheidungen so viel besser vorbereiten und mit einer relativ höheren Sicherheit treffen.

Versicherer beispielsweise sind schon bald mit bislang gänzlich unbekannten Szenarien konfrontiert. Wer haftet etwa bei Unfällen mit einem autonom gesteuerten Fahrzeug? Wie entwickelt sich das Risikoprofi einer Branche nach disruptiven Eingriffen? Und gibt es dadurch möglicherweise gänzlich neue Risiken, die man vernünftigerweise versichern sollte?

Künstliche Intelligenz und Big-Data-Analysen können helfen, solchen Zukunftsfragen auf die Spur zu kommen. Tatsächlich dürften Versicherer, die sich den technischen Möglichkeiten verweigern, nicht erst langfristig ins Hintertreffen geraten. Doch künstliche Intelligenz einzusetzen, bedeutet keinesfalls, das eigene Denken einzustellen.

Wärter für den KI-Zoo

Vielmehr geht es darum, vergangenes und bestehendes Wissen auf die veränderten technischen Rahmenbedingungen anzuwenden. Ein Blick in die Vergangenheit zeigt: Schon vor zehn Jahren haben Datenbanken und automatisierte Regelsysteme das Underwriting im D&O-Bereich massiv beeinflusst. Das Ergebnis: weniger quasi-manuelles Underwriting und mehr Kontrolle der maschinengesteuerten Regelwerke.

Entscheidend ist aber, dass das menschliche Urteil immer noch über die Maschinen wacht. Zwar ist zu erwarten, dass sowohl die „predictive methods“ als auch die Underwriting-Regeln immer besser und damit zutreffender werden. An der Kontrollnotwendigkeit ändert sich aber nichts: Die Modelle müssen laufend überwacht werden, insbesondere dann, wenn neuer Input für die mit solchen Modellen arbeitende künstliche Intelligenz eingespielt wird.

Nicht zuletzt entscheiden Menschen auch darüber, was das spätere Versicherungsprodukt ausmachen soll. Auf ganz bestimmte Risiken möchte man beispielsweise um der eigenen Marktpositionierung bewusst verzichten, obwohl sich eine Deckung wie von der Maschine bestätigt lohnen würde.

Tippgeber – nicht Entscheider

Kurz gesagt: Wer will ich sein und wen will ich wie und warum versichern? Auf diese Frage kann die künstliche Intelligenz keine zufriedenstellende Antwort geben, wenn wir den Primat der menschlichen Entscheidungshoheit nicht aufgeben möchten. Noch dazu sind Fehler nicht weniger falsch, nur weil sie von einer künstlichen Intelligenz begangen worden sind.

Autonom fahrende Fahrzeuge, die gelernten Verkehrsregeln folgen, müssen beispielsweise Signale aus der Umwelt wahrnehmen. Die dort gesammelten Daten über Verkehrsschilder könnten etwa durch manipulierte oder vom Schnee bedeckte und deshalb unkenntliche Anweisungen verfälscht worden sein. Ein Software-Architekt, der vielleicht vorher Verkehrspolizist gewesen ist, würde also das von der Maschine an den Tag gelegte Verhalten plausibilisieren müssen.

Ein anderes Beispiel ist die von Facebook abgeschaltete künstliche Intelligenz, die offenbar eine eigene und für Menschen unverständliche Sprache für eine effizientere Kommunikation erschaffen hat. Gerade in risikosensiblen Bereichen liegt es in der Natur des Menschen, nicht die Kontrolle oder zumindest die Kontrollmöglichkeit zu verlieren. Daraus entsteht eine ganz neue Profession.

Fazit

Insgesamt steht zu erwarten, dass noch bevor der Mensch aus dem von künstlicher Intelligenz beherrschten Arbeitsalltag verschwindet, eine Diskussion über seine Rückkehr losbricht. Das Beispiel Underwriting ist nur eines von denkbar vielen, in denen wir die letztgültige Entscheidung nicht einem Computerprogramm überlassen wollen – und das auch nicht sollten.