Warum erklärbare KI mehr ist als ein Tool – und wie Sopra Steria sie für Polizei und Behörden einsatzreif macht
Gewalt verhindern, ohne unangemessen zu agieren: Mit Good Old-Fashioned AI und moderner Sprachanalyse treffen Sicherheitsbehörden bessere Entscheidungen. Unser Beitrag zeigt, wie erklärbare KI in Form von Case-Based Reasoning (CBR) Erfahrungswissen nutzbar macht – transparent, sicher und nachvollziehbar.
Ein Veranstalter meldet eine Demonstration an. Thema: „Solidarität und Gerechtigkeit“. Die Route führt durch ein zentrales, bislang unproblematisches Stadtgebiet. Auf dem Papier wirkt alles recht harmlos: keine bekannte Szene, keine Gegenkundgebung angekündigt, kein offener Hinweis auf Gewalt.
Und doch fällt der Behörde auf, dass die Versammlungsanmeldung bestimmte Begriffe verwendet, deren Kombination ihre Aufmerksamkeit weckt. „Stimmen erheben“, „Aufbruch wagen“, „Handeln statt warten“, „Solidarität zeigen“: Für sich genommen sind diese Ausdrücke völlig legitim und häufig Teil demokratischer Protestkultur. Doch in der Vergangenheit traten ähnliche Formulierungen auch in Situationen auf, in denen Demonstrationen unerwartet eskalierten. Ist hier erhöhte Wachsamkeit angebracht? Oder wäre das eine Überreaktion?
Genau solche Situationen sind typisch für den Alltag sicherheitsrelevanter Behörden: hohe Ungewissheit, Zeitdruck, Verantwortung und ein ständiger Balanceakt zwischen beobachtender Zurückhaltung und regulierendem Eingreifen – stets unter Wahrung der Verhältnismäßigkeit. In der Praxis entscheidet man sich im Zweifel lieber für „mehr Sicherheit“, d. h. zusätzliche Kräfte, verstärkte Präsenz, höhere Kosten. Denn Fehler können weitreichende Folgen haben – rechtlich, politisch und menschlich.
Was fehlt, ist ein intelligentes System, das hilft, diese Unsicherheit besser zu bewerten, nicht durch Automatisierung, sondern durch strukturierte, nachvollziehbare Entscheidungshilfe. Ein System, das sagt: „In vergleichbaren Fällen wurde so gehandelt – mit folgenden Konsequenzen.“
Fallbasierte, erklärbare KI – insbesondere in Form von CBR – setzt genau hier an. Sie durchsucht dokumentiertes Erfahrungswissen, erkennt semantische Ähnlichkeiten (z. B. in Anmeldetexten, Gruppenzugehörigkeiten oder Mobilisierungsmustern) und zeigt auf, welche früheren Fälle vergleichbar sind und wie sie verlaufen sind.
Im oben genannten Beispiel erkennt ein solches System,
- dass in drei früheren Demonstrationen ähnlich formulierte Anmeldungen eingereicht wurden,
- dass in zwei Fällen spontane Eskalationen erfolgten, ausgelöst durch kurzfristige Online-Mobilisierung, und
- dass Begriffe wie „Aufbruch wagen“ oder „Handeln statt warten“ in diesen spezifischen Kontexten einen Teil der Kommunikationsmuster bildeten, die mit erhöhter Dynamik verbunden waren.
Ergänzend zu fachlichem Urteil und Erfahrung bietet das System eine transparente Einschätzung auf Basis vergleichbarer Fälle: etwa erhöhte Einsatzbereitschaft prüfen und Social-Media-Monitoring aktivieren, jedoch ohne pauschale Gefährdung zu unterstellen. Die Entscheidung trifft weiterhin der Mensch, aber nicht mehr im luftleeren Raum, sondern gestützt auf nachvollziehbare Vergleichsfälle.
Verbessertes Entscheiden ist Schlüsselthema im Public Sector
Diese Form der KI ist weder spekulativ noch autoritär. Sie ist erklärbar, nachvollziehbar und verankert in tatsächlicher Verwaltungspraxis. Und genau das macht sie so wertvoll für die Innere Sicherheit.
Sie greift auch einen zentralen Punkt auf, dem sich Verwaltungen derzeit stellen: Es geht um das verbesserte Entscheiden mithilfe von Technologie. „Enhancing Decision-Making“ lautet einer von zehn Public-Sector-Trends 2025, die Sopra Steria Next identifiziert hat.
Konkret geht es um die Forderung nach KI-Systemen, die Menschen in Entscheidungen stärken, ohne ihre Verantwortung zu verdrängen. In sensiblen Bereichen wie der Inneren Sicherheit wird deutlich: Digitale Exzellenz entsteht nicht durch blinde Automatisierung, sondern durch verstehbare, vertrauensbildende Assistenzsysteme – genau wie Case-Based Reasoning.
Fallbasiert denken: Was Case-Based Reasoning (CBR) eigentlich macht
Menschen entscheiden selten im luftleeren Raum. Sie erinnern sich an ähnliche Situationen und nutzen dieses Erfahrungswissen, um neue Situationen besser einzuordnen. Genau dieses Prinzip bildet CBR nach – ein Verfahren der erklärbaren Künstlichen Intelligenz, das nicht primär auf abstrakten, generalisierenden Modellen basiert, sondern auf konkreten, dokumentierten Einzelfällen aus der Vergangenheit.
Anstatt ein Problem von Grund auf neu zu analysieren, fragt das System nach einer vergleichbaren Situation, wie damals gehandelt wurde und mit welchem Ergebnis. Auf dieser Basis werden ähnliche Fälle identifiziert, nachvollziehbar dargestellt und als Entscheidungsgrundlage zur Verfügung gestellt.
Damit kommt CBR dem menschlichen Entscheidungsverhalten sehr nah – allerdings mit dem Vorteil, dass das System dabei auch strukturiert auf zusätzliche Datenquellen zurückgreifen kann, z. B. Anmeldetexte, Einsatzberichte, Lagedokumentationen oder öffentlich zugängliche Kommunikationskanäle.
So entsteht keine automatisierte Entscheidung, sondern eine transparente, fallbezogene Entscheidungsunterstützung, die nachvollziehbar und anschlussfähig für menschliches Urteilen ist.
In der Praxis läuft CBR nach einem einfachen, aber wirkungsvollen Muster ab: Ein neues Problem – etwa eine Versammlungsanmeldung mit unklarer Tonlage – wird mit früheren ähnlichen Situationen abgeglichen. Das System analysiert, welche Fälle semantisch und kontextuell vergleichbar sind, wie damals entschieden wurde und was die Folgen waren.
Anders als viele klassische KI-Ansätze kann CBR auch mit unvollständigen oder unscharfen Informationen arbeiten. Das ist gerade im sicherheitsrelevanten Umfeld ein großer Vorteil – denn selten liegt ein vollständiges, eindeutiges Lagebild vor.
Denn CBR berücksichtigt nicht nur strukturierte Falldaten wie Ort, Anlass oder Gruppenzugehörigkeit, sondern kann auch Informationsquellen wie Online-Foren, Social-Media-Kommunikation oder öffentliche Mobilisierungsplattformen einbeziehen. Dabei geht es weniger um Masse als um kontextbezogene Muster: Wie wird gesprochen? Welche Begriffe deuten auf Eskalation hin? Wie entwickelt sich die Gruppendynamik?
CBR ist somit kein starres Regelwerk, sondern ein lernbares, adaptives System, das Erfahrungen systematisiert, in Beziehung setzt und damit entscheidungsrelevantes Wissen erklärbar verfügbar macht.
Wenn Sprache zum Signal wird – semantische Ähnlichkeit als Schlüssel
CBR gehört zur sogenannten „Good Old-Fashioned Artificial Intelligence“ (GOFAI) – einer symbolischen, regelbasierten KI, die auf nachvollziehbarer Logik beruht. Lange galt sie als überholt – doch in Zeiten, in denen Transparenz, Kontextverständnis und Verantwortung wieder stärker im Fokus stehen, ist sie aktueller denn je.
Was den Ansatz heute besonders interessant macht, ist die Kombination mit modernen sprachbasierten Verfahren sowie die Strukturierung des Wissens mittels einer Ontologie. Um auch unstrukturierte Texte wie Versammlungsanmeldungen, Social-Media-Postings oder offene Schreiben sinnvoll in die Ähnlichkeitsbewertung einbeziehen zu können, kommen Verfahren wie z. B. Word2Vec zum Einsatz.
Diese sogenannten Word Embeddings projizieren Wörter in einen Vektorraum, in dem semantische Nähe mathematisch erfassbar wird. So erkennt das System etwa, dass Begriffe wie „Aufstand“, „Systemkritik“ und „aktive Gegenwehr“ trotz unterschiedlicher Formulierungen ähnliche Bedeutungsfelder abdecken – und in früheren Fällen zu vergleichbaren Dynamiken führten.
Genau diese Kombination macht den Ansatz so stark:
- GOFAI-basierte CBR-Methoden sorgen für Erklärbarkeit, Struktur und Rückverfolgbarkeit;
- moderne Sprachmodelle (LLMs) bringen Flexibilität, Kontextsensitivität und semantische Tiefenschärfe.
Gemeinsam ermöglichen sie eine intelligente, aber verantwortbare Entscheidungsunterstützung, die sich gerade im sensiblen Bereich der Inneren Sicherheit bewähren könnte. So entsteht ein System, das nicht nur fragt: „Gab es diesen Fall schon einmal?“, sondern auch: „Klingt das nach einem Fall, den wir kennen sollten?“
Warum erklärbare KI Vertrauen schafft – gerade für die Innere Sicherheit
Im sicherheitsrelevanten Bereich geht es nicht nur um Effektivität – sondern vor allem auch um Verantwortung, Verhältnismäßigkeit und Vertrauen. Wer mit sensiblen Informationen oder weitreichenden Maßnahmen arbeitet, braucht Systeme, die nicht nur funktionieren, sondern auch erklärbar und rechtlich anschlussfähig sind.
In demokratischen Strukturen kann kein KI-System autonom über Menschen entscheiden. Es kann aber helfen, Entscheidungen besser zu begründen. Genau hier liegt die Stärke von erklärbarer KI. Sie macht nachvollziehbar, auf welcher Grundlage ein Vorschlag zustande kam, und ermöglicht Diskussion, Korrektur und Bewertung.
Gerade in Zeiten wachsender Skepsis gegenüber Automatisierung ist das entscheidend. Denn nur wenn KI transparent agiert, bleibt sie legitim und anschlussfähig – für Behörden, Gerichte und die Öffentlichkeit.
Wenn digitale Systeme nicht entmündigen, sondern Verstehen fördern, entsteht Vertrauen, und genau das ist die Voraussetzung dafür, dass KI ein verantwortbarer Teil sicherheitsrelevanter Entscheidungsarchitektur werden kann.
Digitale Exzellenz in der Inneren Sicherheit – durch Verstehen statt nur Automatisieren
Digitale Exzellenz in der Inneren Sicherheit bedeutet nicht, alles zu digitalisieren – sondern das Richtige intelligent zu unterstützen. Es geht darum, Menschen in verantwortungsvollen Rollen mit Systemen auszustatten, die helfen, besser zu entscheiden, nicht schneller zu ersetzen.
Fallbasierte, erklärbare KI wie CBR, angereichert mit modernen semantischen Verfahren, bietet dafür einen realistischen, verantwortbaren Weg. Kein technischer Hype, sondern eine durchdachte Lösung, die auf Erfahrung, Kontext und Transparenz setzt.
Gerade in sicherheitsrelevanten Bereichen, wo Vertrauen und Verhältnismäßigkeit zentral sind, ist Verstehen wichtiger als bloße Vorhersage. Systeme, die nachvollziehbar handeln, stärken nicht nur die operative Qualität, sondern auch das Vertrauen in öffentliche Institutionen.
Damit greift der Ansatz genau das auf, was im Trend 10 „Enhancing Decision-Making“ der Sopra-Steria-Next-Publikation gefordert wird: digitale Systeme, die menschliche Entscheidungen unterstützen, nachvollziehbar machen und Verantwortung ermöglichen, statt sie durch intransparente Automatismen zu verdrängen.
Erklärbare KI wird so zum Gestaltungsinstrument für eine moderne, wertebasierte Sicherheitsarchitektur – und zum strategischen Baustein digitaler Souveränität.