Effektives Datenqualitätsmanagement

Erfolg von Big-Data-Analysen

Im Interview erläutert Monika Pürsing, Chief Executive Officer der auf Software-Entwicklung für Beteiligungs- und Stammdatenmanagement spezialisierten Zetvisions AG in Heidelberg, warum ein effektives Datenqualitätsmanagement wichtige Voraussetzung für den Erfolg von Big-Data-Analysen ist.

Monika Pürsing, Zetvisions AG

Monika Pürsing, Zetvisions AG

IT-DIRECTOR: Frau Pürsing, mit dem Aufstieg von „Big Data“ werden Daten immer wichtiger. Parallel dazu wächst die Bedeutung der Datenqualität, denn ohne verlässliche Qualität der Daten sind Analysen, die auf ihnen beruhen, nur Makulatur. Wie sehen Sie die aktuelle Situation?
M. Pürsing:
Zunächst muss klar sein, wie rasant die Datenmenge global wächst. 2011 wurden schon 1,8 Zettabyte Daten erzeugt und kopiert, 2013 waren es bereits 4,4 Zettabytes. 2020 soll das digitale Universum 44 Zettabyte umfassen. Teil dieser Entwicklung ist das explodierende „Internet der Dinge“. Alle fünf Jahre verdoppelt sich die Anzahl der vernetzten intelligenten Objekte: Waren es 2010 weltweit 12,5 Milliarden, sollen es in diesem Jahr bereits 25 Milliarden und 2020 50 Milliarden sein, prognostiziert Cisco. Der Digitalisierungsgrad der Wertschöpfungsketten wird dadurch in Zukunft rapide zunehmen. Laut PwC ist in vier, fünf Jahren mit einem Digitalisierungsgrad zwischen 80 und 90 Prozent zu rechnen. Von daher ist es kein Wunder, wenn für die Zukunft branchenübergreifend 90 Prozent aller Unternehmen davon überzeugt sind, die Fähigkeit, große Datenmengen effizient zu analysieren und effektiv zu nutzen, sei für den Erfolg ihres Geschäftsmodells entscheidend.

IT-DIRECTOR: Wo sehen Sie das Hauptproblem bei der Bewältigung dieser Aufgabe?
M. Pürsing:
In der Datenqualität. Big Data wird üblicherweise anhand der Charakteristika Datenmenge, Geschwindigkeit des Datenstroms und Vielfalt der Datenformate sowie -quellen beschrieben. Unternehmen müssen jedoch eine vierte Dimension berücksichtigen: die Richtigkeit der Daten. Hohe Datenqualität ist eine wichtige Anforderung im Umgang mit Big Data. Auch noch so viele Daten sind ohne das Erkennen von Zusammenhängen, Bedeutungen und Mustern wertlos. Der Einsatz von Verarbeitungs- und Analysemethoden kann aber nur dann einen monetären Wert aus Big Data generieren, wenn die Daten „stimmen“. Auswertungen oder Planungen sind fehleranfällig, wenn sie nicht auf vollständigen, eindeutigen und „richtigen“ Daten basieren.

IT-DIRECTOR: Was heißt das konkret?
M. Pürsing:
Laut einer PwC-Studie sehen Unternehmen die größten Chancen von Big Data in der Erhöhung der Profitabilität, gefolgt von einem besserem Marktverständnis sowie einer Optimierung von Organisation und Prozessen. Lediglich größere Datenmengen sind dafür nicht hinreichend; sie bedeuten nicht zwangsläufig auch eine bessere Datenqualität. Eine hohe Datenqualität ist aber eine unabdingbare Voraussetzung, um aus der riesigen Datenmenge die richtigen Schlüsse zu ziehen. Datenqualität ist die Voraussetzung für Informationsqualität, und Informationsqualität ist die Grundlage gesicherten Wissens. Da Informationen auf Daten basieren, wirkt sich die Datenqualität auf die Qualität der Informationen aus, die aus den entsprechenden Daten gewonnen werden: Aus „schlechten“ Daten kann es keine „guten“ Informationen geben. Wenn auf Basis „schlechter“ Daten Informationen die Realität ungenau beschreiben oder wenig zuverlässig sind, dann sind sie als Grundlage für die Planung des eigenen Handelns kaum geeignet. Durch die Analyse von Big Data Wettbewerbsvorteile zu erlangen, Einsparpotentiale zu generieren und neue Geschäftsfelder zu schaffen, kann so nicht gelingen.

IT-DIRECTOR: Wenn Datenqualität so wichtig ist, wie sieht es hier aktuell aus?
M. Pürsing:
Nach allem, was wir aus diversen Umfragen wissen, nicht so toll. 2014 sagten 36 Prozent der Unternehmen, sie seien allgemein mit der Datenqualität sehr oder eher unzufrieden. Beispiel Stammdaten: Im Jahr zuvor gab mehr als die Hälfte der Unternehmen an, unzureichende Stammdatenqualität wirke sich nach wie vor massiv negativ auf die Prozesse entlang ihrer gesamten Wertschöpfungskette aus. Rund 60 Prozent der Befragten sahen zudem enormen Nachholbedarf bei der Messbarkeit, Kontrolle und Verbesserung von Datenqualität.

Beispiel Produktionsdaten: 51 Prozent der in der Studie „Produktionsarbeit der Zukunft“ des Fraunhofer IAO (2014) befragten Unternehmen sagen, schlechte Qualität der Produktionsdaten machten in starkem oder sehr starkem Maße kurzfristige Eingriffe in die Produktionssteuerung notwendig. Beispiel Industrie 4.0: Die für Industrie-4.0-Anwendungen benötigte aktuelle, für die jeweilige Nutzung genaue und verlässliche Datengrundlage steht heute in den meisten Fällen noch nicht zur Verfügung. 72 Prozent der Befragten stimmten 2014 der Aussage zu, bevor Industrie-4.0-Potentiale gehoben werden können, seien massive Investitionen in die heute zur Verfügung stehende Datenqualität erforderlich. Herausforderungen bei der Datenqualität beträfen derzeit beispielsweise die Genauigkeit, Vollständigkeit und Aktualität der zur Verfügung stehenden Stammdaten der eingesetzten ERP- und MES-Systeme.

IT-DIRECTOR: Haben die Verantwortlichen aus dieser misslichen Lage gelernt?
M. Pürsing:
Immerhin stehen Datenqualitätsmanagement und Master Data Management unter den Top-IT-Themen des Jahres 2015 an erster Stelle. Das lässt hoffen. Der Weg ist aber noch lang, denn viele Unternehmen arbeiten ohne eine professionelle Lösung für das Management von Stammdaten, dem Rückgrat ihrer Geschäftsprozesse. Damit drücken sie sich nicht zuletzt vor der Aufgabe, ihre Geschäftsprozesse zu justieren und Regeln für den Umgang mit Daten aufzustellen. Gerade das erfordert aber ein professionelles Stammdatenmanagement: klare Richtlinien, welche Daten wo und wie gepflegt werden, wer genehmigt. Hinzu kommt, die Verantwortlichen müssen auch für die Richtigkeit und Vollständigkeit der Daten geradestehen.

Dies ist ein Artikel aus unserer Print-Ausgabe 12/2015. Bestellen Sie ein kostenfreies Probe-Abo.

IT-DIRECTOR: Wie lautet Ihr Resümee?
M. Pürsing:
Unternehmen müssen erkennen, dass zu den bereits bekannten Treibern für Stammdatenqualität, wie etwa Compliance-Anforderungen, 360-Grad-Sicht auf den Kunden oder Schaffung eines „Single Point of Truth“, jetzt Big Data Analytics mit Macht hinzukommt. Ein effektives Datenqualitäts- und Stammdatenmanagement ist daher im Zusammenhang mit Big Data endgültig unerlässlich. Nur so lässt sich Datenqualität sichern und lassen sich Strukturen in Big Data erkennen und nutzbar machen. Erst ein professionelles Stammdatenmanagement liefert die Grundlage, um aus „guten“ Daten „gute“ Informationen und sodann mit Hilfe wirkungsvoller Analytik zuverlässiges Wissen zu generieren. Das ist und bleibt die Voraussetzung für gut abgesicherte unternehmerische Entscheidungen.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok