Digitale Exzellenz
Digitale Exzellenz

Wie nachhaltig ist eigentlich…Künstliche Intelligenz 

, 12. April 2023

Lesezeit: 7 Minuten

Wie nachhaltig ist eigentlich…Künstliche Intelligenz 

Unternehmen wollen Künstliche Intelligenz nutzen, um damit Gutes zu tun. Gleichzeitig müssen und wollen sie die Technologie aber nachhaltig einsetzen und zum Beispiel verhindern, dass sie zu viel Energie verbraucht, Menschen diskriminiert oder falsche Analysen anfertigt. Damit das funktioniert, brauchen Unternehmen neben qualifizierten Fachkräften vor allem firmenweite Regeln (Governance).

Künstliche Intelligenz verbraucht mitunter ziemlich viel Energie: für das Vorhalten und Aufbereiten von Daten, für das Trainieren von Algorithmen und für immer neue Datenabfragen und -analysen. So hat OpenAI zum Beispiel sein GPT-3-Modell mit 45 Terabyte Daten trainiert. Und um die endgültige Version seines Sprachmodells MegatronLM zu trainieren, das GPT-3 ähnelt, aber kleiner ist, hat Nvidia ganze 512 V100-GPUs über neun Tage hinweg laufen lassen. Das Onlinemagazin TechTarget hat ausgerechnet, dass dafür rund 27.650 kWh Strom notwendig waren.

Aber der hohe Energieverbrauch von KI ist dennoch kein Naturgesetz. Je nach Use Case können KI-Systeme durchaus auch schlank und sparsam sein. Ein automatisierter E-Mail-Posteingang etwa, der Mails sortiert und klassifiziert, verbraucht nicht nennenswert mehr Energie als der Mail-Client selbst und kann also praktisch vernachlässigt werden. Und mithilfe des sogenannten Transfer Learning können heute sogenannte Transformer Models eingesetzt werden, die auf einer großen Datenmenge vortrainiert wurden. Diese KI-Systeme stehen meist mit Open-Source-Lizenzen frei zur Verfügung und können für den individuellen Anwendungsfall mit kleinen Datenmengen und geringem Energieaufwand optimiert werden.

Die Energiebilanz von KI verbessert sich mit ihrer Leistungsfähigkeit

Aber eins der Grundgesetze moderner IT, das Mooresche Gesetz, gilt auch für KI: Je leistungsfähiger die Computer-Hardware wird, desto effizienter und damit auch energieeffizienter werden die Berechnungen. Allerdings wird der exponentiell sinkende Energieverbrauch je Recheneinheit, auch das ist Teil des Gesetzes, durch immer komplexere algorithmische Modelle schnell wieder zunichtegemacht.

Wir können hier nicht der Frage nachgehen, wie die für den Betrieb von Algorithmen benötigte Energie gewonnen werden kann. Es ist keine KI-spezifische Aufgabe, sondern eine Grundfrage für Unternehmen, neue Quellen für die Energieversorgung zu finden – unter anderem für die IT – und das Problem der Emissionen in den Griff zu bekommen. KI kann aber dabei helfen, Schwachstellen – etwa einen zu hohen Energieverbrauch – aufzuspüren und Potenziale für Optimierungen zu identifizieren.

Ein punktueller Einsatz von KI wird die Ökobilanz eines Unternehmens nicht wirklich positiv beeinflussen. Der Aufwand für kleine Projekte ist größer als ihr Nutzen: Es müssen Technologien implementiert, Daten aufbereitet und Algorithmen trainiert werden, bevor sich Erkenntnisse gewinnen lassen. Positiv wird die Ökobilanz erst auf lange Sicht, wenn sich dieser Aufwand amortisiert hat.

Es muss nicht immer Künstliche Intelligenz sein

Der Einsatz von KI ist immer eine Option, um neue Geschäftsmodelle zu entwickeln oder datenbasierte Entscheidungen zu treffen. Die Technologien sind reif genug, Daten sind genügend vorhanden. Allerdings sollten sich Unternehmensverantwortliche fragen, ob sich ein bestimmtes Ziel, das sie mit KI verfolgen, nicht doch auch ohne KI erreichen lässt.

Eins der wichtigsten Einsatzgebiete von KI in Unternehmen ist die Automatisierung von Prozessen. Ob für die Automatisierung KI (nachhaltig) eingesetzt werden kann, hängt allerdings von der individuellen Ausgangslage der Unternehmen ab. Im Einzelfall kann Robotic Process Automation (RPA) eine Alternative sein, eine innovative Technologie, mit der Unternehmen branchenübergreifend Geschäftsprozesse automatisieren können. RPA arbeitet nicht mit KI, sondern regelbasiert. Das Ergebnis könnte ähnlich sein. Der Aufwand für Datenbereitstellung und Training ist aber so niedrig, dass RPA schon aus Gründen der Nachhaltigkeit anstelle von Algorithmen eingesetzt werden könnte. Die Faustregel lautet: KI kann auf viele Fragen Antworten liefern, ist aber nicht die einzig denkbare Antwort auf alle Fragen.

(Wer sich für konkrete „Nachhaltigkeitskriterien für Künstliche Intelligenz“ interessiert: Ich empfehle dazu den gleichnamigen Band der Schriftenreihe des Instituts für ökologische Wirtschaftsforschung, der sich dieses Themas sehr ausführlich annimmt!)

Das „S“ in ESG: ethische KI

Das „S“ in den ESG-Kriterien steht für die soziale Verantwortung, die Unternehmen wahrnehmen sollen – und zwar auf jeder Stufe ihrer Wertschöpfung. Bezogen auf KI ist das eine wichtige Aufgabe sowohl nach innen als auch nach außen.

So heißt es etwa in dem bereits zitierten Band „Nachhaltigkeitskriterien für Künstliche Intelligenz“, der Einsatz von KI-basierten Technologien sei mit dem Risiko verbunden, dass sich die Arbeitsbedingungen für Arbeitnehmerinnen und Arbeitnehmer dadurch verschlechtern und „negative verteilungsökonomische Auswirkungen“ nach sich ziehen könnten.

Klar ist, dass etwa der Einsatz von („intelligenten“) Robotern bestimmte Tätigkeiten in einem Unternehmen für menschliche Arbeitskräfte obsolet machen wird. Oft sind das aber repetitive, auch besonders schmutzige oder gefährliche Jobs, also bei weitem nicht nur solche, die als erhaltenswert gelten. Dennoch muss die Veränderung der Arbeit in den Unternehmen gemanagt werden: über ein Change Management, über Fort- und Weiterbildungen oder über Sozialprogramme, die diese Transformationen abfedern.

Ein Problem beim Einsatz von KI ist, dass Algorithmen – wie das menschliche Gehirn übrigens auch – wie eine Blackbox arbeiten: Niemand weiß so genau, wie sie zu Erkenntnissen kommen. Die Entwickler von KI haben dieses Problem erkannt und mit „erklärbarer KI“ („eXplainable Artificial Intelligence“, XAI) einen Ansatz entwickelt, der Rückschlüsse auf die tatsächliche Arbeitsweise erlaubt. Diese Transparenz ist für die Akzeptanz von KI nötig, damit die Menschen Algorithmen vertrauen und um zu verhindern, dass Algorithmen bei ihrem Einsatz Menschen diskriminieren.

Dabei gilt: KI ist nicht von sich aus schlecht – übrigens auch nicht gut. Diese Bewertung ergibt sich immer nur aus dem Kontext, in dem sie eingesetzt wird. Der Kontext wird nicht unwesentlich von der Qualität der Daten bestimmt, die von Algorithmen verarbeitet werden. Sind die Daten schlecht, kann die KI nicht besser sein.

Arbeitet ein Algorithmus zum Beispiel ausschließlich mit personenbezogenen Daten über den Konsum weißer, westeuropäischer Männer, wird der Algorithmus für Frauen aus anderen Gebieten der Welt keine validen Aus- oder Vorhersagen treffen können. Klingt einfach und ist es grundsätzlich auch. Aber das Ziel, Vorurteile und Diskriminierungen zu verhindern, stellt hohe Anforderungen an die Datenbasis von KI, die nicht so einfach zu erfüllen sind. Eine Alternative zum verantwortungsvollen Einsatz von KI gibt es aber nicht. So ist es eine der wichtigsten Aufgaben im Rahmen der ESG-Kriterien, KI ethisch korrekt, also zum Wohle der Menschen einzusetzen.

 (Um auch den Rahmen für ethische KI an dieser Stelle nicht zu sprengen, empfehlen wir für die Vertiefung den Beitrag „Digitale Ethik“ der Kollegin Anne Haug.)

Governance: So nehmen Unternehmen ihre Verantwortung wahr

Beim Thema Governance und KI geht es im Grunde darum, Richtlinien und Regelwerke zu erarbeiten, die den Umgang mit KI und die Auswirkungen von KI auf Unternehmensprozesse, die Wertschöpfung und die Arbeit ihrer Mitarbeitenden steuern. Es ist wichtig, dass Unternehmen die Fragen danach beantworten, wo genau KI eingesetzt werden soll und wie viel Entscheidungsgewalt man ihr geben möchte. Darauf gibt es aber keine starren Antworten. Die Entwicklung von KI und von Use Cases in einem Unternehmen erfordert dynamische Antworten. Es hängt eben auch von den Fähigkeiten und der Vertrauenswürdigkeit von KI ab.

Über die Verabschiedung und Kontrolle von Richtlinien hinaus gehört auch das Schaffen einer Daten- oder KI-Kultur zu den Aufgaben verantwortungsvoller Unternehmensführung: Unternehmen müssen ihre Mitarbeitenden mitnehmen, sie für den Umgang mit KI qualifizieren, neue Rollen dafür definieren und ausbilden oder neue Mitarbeitende für diese Rollen gewinnen. Dazu gehört auch, eine Kultur des Widerspruchs zu etablieren, in deren Rahmen Mitarbeitende ihre Bedenken und Ängste gegenüber den neuen Technologien äußern können. Der möglichst breite Konsens über den Einsatz von KI ist eines der wichtigsten Erfolgskriterien, denn viele IT-Projekte scheitern genau hier.

Um Antworten auf alle Fragen zu Governance und Ethik zu finden, bieten wir bei Sopra Steria einen „QuickCheck Digitale Ethik“ an, den wir gemeinsam mit dem Artificial Intelligence Center Hamburg e. V. (ARIC) entwickelt haben. Der QuickCheck hilft Organisationen, den eigenen Reifegrad beim Thema KI und digitale Ethik zu ermitteln bzw. einen Einstieg in dieses Thema zu finden.

Nachhaltige Künstliche Intelligenz ist Unternehmensaufgabe

Nachhaltige KI ist ein komplexes und vielschichtiges Thema, das alle drei ESG-Kriterien betrifft und Regelungen für jedes dieser Kriterien verlangt. Genau das ist der Grund, warum nachhaltige KI eine echte Managementaufgabe ist, die das ganze Unternehmen und, weit jenseits der eigenen Grenzen, auch die gesamte Wertschöpfung betrifft. Es reicht daher nicht, diese Aufgabe an Fachabteilungen oder die IT zu delegieren.