Big Data ist nicht gleich Big Knowledge

Big Data = Big Knowledge = Big Mistake

Experten sagen uns, dass sich unser Wissen in immer kürzeren Zeitabständen verdoppelt: Lagen wir 1950 noch bei 50 Jahren, 1980 bei sieben Jahren, 2010 bei knapp vier Jahren, so lautet die Prognose für 2020 nur noch 73 Tage. Kann das wirklich sein, oder ist das eher ein Hype? Wir sollten Daten nicht mit Wissen gleichsetzen und damit Big Data nicht mit Big Knowledge.

Als wissenschaftlich geprägter Mensch nähere ich mich der Fragestellung mit einer Schärfung des Begriffes, um den es geht: Wissen. „Wissen ist die Gesamtheit der Kenntnisse und Fähigkeiten, die Individuen zur Lösung von Problemen einsetzen. Wissen basiert auf Daten und Informationen, ist im Gegensatz zu diesen aber immer an eine Person gebunden“, so liest man im Gabler Wirtschaftslexikon.

Wissen setzt also offenbar Daten und Informationen voraus, und ebenso wie diese quantifizierbar und messbar sind, müssen wir annehmen, dass auch Wissen quantifizierbar und messbar sein soll –ansonsten wäre jegliche Diskussion zu „Verdopplung“ sinnlos und der Blogeintrag hier zu Ende.

Bisweilen wird neben einer Verdopplung von Wissen auch – und oft fälschlicherweise synonym – mit immer kürzeren Zeiträumen der Verdopplung von Informationen gleichgesetzt. Dabei kann mit einer Verdopplung von Informationen allenfalls die Verdopplung von Daten auf menschlich erzeugten Datenträgern oder in Datentransportmedien (z.B. Netzwerken) gemeint sein. Informationen also solche befinden sich in allen Strukturen des Universums und der Natur und sind nicht an Datenträger oder Netzwerke gebunden.

Es bedarf sicherlich keiner weiteren Begründung, dass sich allein schon aus dem Übertragen von Informationen aus natürlichen Strukturen auf Datenträger (Digitalisierung) noch kein Wissenszuwachs ergibt. Beispiel: Wir haben zwar die DNA entschlüsselt, aber damit noch nicht die letzten Geheimnisse der Genetik verstanden. In der Literatur wird Wissen in Zusammenhang mit Gewissheit und einem Maß von Wahrheit gebracht. Wissen ist infolgedessen – wie bei Gabler – immer an den Menschen gebunden. Mit anderen Worten: Ohne Menschen existiert kein Wissen, und Wissen ist damit keine in der Natur existierende Kategorie.

Ohne den Menschen erzeugt künstliche Intelligenz Daten, kein Wissen

Für die Debatte rund um die Möglichkeiten von Big Data ergeben sich daraus zwei Schlussfolgerungen:

  1. Sämtliche maschinelle Verarbeitung von Daten durch Computer erzeugt stets nur neue Daten, aber kein Wissen, da Wissen an Menschen gebunden ist und nicht durch Maschinen erzeugt werden kann. Auch wenn mir die KI-Kollegen widersprechen mögen: Ohne den Menschen erzeugt künstliche Intelligenz Daten, aber kein Wissen.
  2. Wissen lässt sich qualitativ abstufen. Es gibt Wissen, das für den Menschen für die Lösung von Problemen nützlicher ist als anderes. Im Extremfall löst Wissen das Problem überhaupt nicht. Fraglich ist dann, ob wir hier überhaupt von Wissen sprechen sollten. Wichtig ist zudem, dass wir nicht selten erst lange nach Wissenserzeugung den Nutzen von Wissen erkennen. Beispiel: Grundlagenforschung.

Zweifellos erlaubt die heutige Technologie dem Menschen einfacher und schneller auf Daten und Informationen zuzugreifen, die eine notwendige Voraussetzung für die Erzeugung von Wissen sind. Das allein kann aber nicht zu einer schnelleren Wissensvermehrung führen. Dafür sind zum einen die kognitiven Fähigkeiten des Menschen erforderlich, die nun einmal an seine seit vielen Jahrtausenden konstante Gehirnstruktur gekoppelt sind. Zum anderen wird die Geschwindigkeit der Wissenserzeugung entscheidend gebremst. Dafür sorgen die Sensorik des Menschen – in gewisser Weise die Übertragungsrate der fünf Sinne – und der zeitaufwändige Auswahlprozess der für die Wissenserzeugung nützlichen Informationen aus dem rapide ansteigenden und oft massiv redundanten Datenangebot. Rechnergestützte Vorverarbeitung hilft zwar, wird aber diesen Prozess nie ganz beseitigen können.

Wissensverdopplung durch Big Population, nicht durch Big Data

Allein aus der Definition und den Eigenschaften von Wissen gelingt es somit nicht, auf eine immer schnellere Wissensvermehrung zu schließen. Bleibt noch der empirische Ansatz, also das Messen der Wissensmenge und möglicherweise der Beobachtung, dass diese über die Zeit massiv zunimmt.

Nun ist es mit der Feststellung der Existenz von Wissen wie mit dem von schwarzen Löchern: Das funktioniert nur über die Auswirkungen, direkt sehen kann man es nicht. Existenz von Wissen sollte sich, wenn es denn beim Menschen vorhanden ist (und nur dort kann es vorhanden sein), zu seiner Fähigkeit führen, Probleme lösen zu können, und der Mensch sollte es auch tatsächlich tun. Fakt ist; Wir haben als wissende Menschen immer Probleme gelöst und werden das auch in Zukunft. Technologie wird uns dabei helfen. Dass wir heute und zukünftig in der Lage sein sollen, in immer kürzeren Zeiträumen die Anzahl der Lösungen der sich uns stellenden Probleme zu verdoppeln, widerspricht allerdings jeglicher Beobachtung.

Das bedeutet: Wissen vermehrt sich ständig, allein schon deshalb, weil bisher erlangtes Wissen in der Regel nicht verloren geht. Dieser Anstieg korreliert allerdings eher mit der Anzahl der Menschen, die Wissen erzeugen, als mit der Anzahl der Daten, die auf Datenträgern existieren. Von einer Wissensexplosion kann daher keine Rede sein. Der Eindruck entsteht vielmehr aus diesen beiden Gründen:

  1. Information und Daten wird mit Wissen verwechselt.
  2. Der einfache Zugang zu einer Unmenge an Daten oder die maschinelle Vorverarbeitung von Daten suggeriert einen Gewinn an Wissen, das hilft Probleme zu lösen.

Mehr Wissen erfordert Menschen und seine Kompetenzen

Für ein verstärkt datengetriebene Wirtschaft und Gesellschaft lässt sich festhalten:

Wissen ist und bleibt ein kostbares Gut. Insofern gilt es, die Kompetenzen des Menschen, mit seiner Erfahrung, seinen Methoden und seinen Kenntnissen, Wissen zu erzeugen und nutzbringend zur Lösung von Problemen anzuwenden, zu erhalten und zu stärken. Immer mehr Daten immer einfacher zugänglich zu machen hilft uns dabei nicht weiter, sondern nur Qualifizierung, Förderung von Talenten und die Fähigkeit, mit Konsequenz nutzloses Wissen zu verwerfen und nie aufzuhören, existierendes Wissen zu hinterfragen.

„Man muss nicht alles glauben, was man hört.“
Marcus Tullius Cicero
(106 – 43 v. Chr.), römischer Redner und Staatsmann

Foto: Getty Images / Jodi Jacobsen


Gerald Spiegel

Dr.Gerald Spiegel ist Leiter Information Security Management bei Sopra Steria Consulting. Im Blog schreibt er über IT-Sicherheit, Cybercrime und Security Information and Event Management (SIEM).


Hinterlassen Sie eine Antwort

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Sie können folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>