Die Menge der Daten verdoppeln sich alle zwei Jahre. Bis heute wurden über drei Zettabytes erzeugt – d.h. 3.000.000.000.000.000.000.000 Bytes. Bis 2020 soll laut IDC http://ow.ly/Ao5v7 das Datenvolumen auf 40 Zettabytes ansteigen. Es ist verständlich, dass die Anwender verängstigt vor dieser Überflutung mit Informationen zurückschrecken. Zur Beruhigung hat die IT-Industrie, die diese Flut fördert, Lösungen entwickelt. Sie suggerieren, dass sich diese sehr großen, vielfältigen und schnell entwickelnden Datenmengen beherrschen lassen. Diese Produkte werden unter dem Oberbegriff Big Data zusammengefasst. Beziehungen, Bedeutungen und Muster lassen sich mit besonderen Programmen auswerten. Dann müssen nur noch die Fachleute, die den Mehrwert für das Unternehmen erwirtschaften, wissen, was zu tun ist, um den Nutzen durch Big Data zu erzeugen.
Das Besondere ist die Tatsache, dass nicht nur interne Datenbestände interpretiert werden können, sondern auch alle erreichbaren Daten, unabhängig von ihrer Struktur. Eine Voraussetzung ist die Fähigkeit der Fachleute, die richtigen Fragen richtig zu formulieren. Es folgt die technische Umsetzung durch den IT-Bereich. IT kehrt damit wieder zu seiner alten Funktion der Auswertung von Daten zurück. Der Ablauf besteht aus drei Schritten.
- Fragen formulieren
Die Fachleute müssen ihren Informationsbedarf festlegen. Zuerst werden Fragen formuliert (In welchen Regionen laufen welche Produkte? Eigene und die der Wettbewerber?). Dann werden Quellen sowie der Zeitpunkt und der Zeitraum für die Auswertung bestimmt. - Daten verarbeiten
Die Spezialisten der IT-Abteilung, die sogenannten Data Scientists, übernehmen die Fragestellungen und übersetzen sie in die technischen Spezifikationen der IT – die erreichbaren Datenbanken, die sicherheitsrelevanten Aspekte, Datenformate, Kompatibilität, etc. Daraus leiten sich dann die Programme ab, die die Ergebnisse erzeugen unter Nutzung von SQL, NoSQL, Analytics, Visualisierungen, etc. Schließlich werden die Ergebnisse zusammengestellt und dem Fachbereich geliefert. Dieser Prozess ähnelt der frühen Datenverarbeitung und deren Batchprogrammen. Allerdings findet in jeder Phase eine enge Zusammenarbeit zwischen Fachbereich und IT-Abteilung statt. Darüber hinaus haben sich die Möglichkeiten der Auswertung über die Jahre stark weiterentwickelt. - Ergebnisse nutzen
Entscheidend ist die korrekte Interpretation der Ergebnisse. Dafür ist es wichtig, Berichte zu produzieren, die richtige, aktuelle, vergleichbare, verständliche und nachvollziehbare Resultate liefern. Auf dieser Grundlage werden dann Maßnahmen entwickelt.
Dieses Vorgehen erzeugt mit der Zeit viele Auswertungen, die häufig unterschiedliche Zeiträume abdecken und verschiedene Absichten verfolgen. Da sich auch die Datenquellen in einer großen Geschwindigkeit verändern, muss man sich wohl oder übel darauf einstellen, dass die Berichte nur eine kurze Halbwertszeit haben. Für die Nutzer bedeutet dies, dass
- sie immer offen sein müssen für neue Erkenntnisse,
- Ergebnisse nicht lange halten und
- Maßnahmen in kürzeren Abständen stattfinden sowie
- vergangene Ergebnisse schneller vergessen werden müssen,
um den Platz für neue Erkenntnisse zu schaffen. Zahlen, Daten und Fakten erhalten ein neues Gewicht, da die qualifizierte Interpretation schwieriger wird sowie die Aktualität und das Zusammenspiel sich regelmäßig ändern.
Fazit: Big Data erlaubt die Verarbeitung der verfügbaren internen und externen Datenbestände. Dies erfordert eine entsprechende IT-Infrastruktur und vor allem die Fähigkeit, Fragen deutlich zu formulieren und in IT-Aktivitäten zu übersetzen. Damit steigt die Wichtigkeit der IT-Abteilung und der leistungsfähigen IT-Infrastruktur. Der Nutzen, der durch Big Data entsteht, erfordert auch einen neuen Umgang mit den kurzlebigen Erkenntnissen aus den Zahlen, Daten und Fakten. Die Grundlagen für Entscheidungen müssen regelmäßig überarbeitet werden.