02.01.2018

Datenqualität für messbaren Nutzen

Von: Monika Pürsing

Gute Datenqualität und professionelles Stammdatenmanagement können den Unternehmen einen messbaren wirtschaftlichen Nutzen bringen.

Datenqualität bringt messbaren Nutzen

Datenqualität bringt messbaren Nutzen

Der Übergang vom Industrie- zum Informationszeitalter ist durch einen Anstieg der Relevanz immaterieller Vermögensgegenstände gekennzeichnet. Dazu zählen laut der Zetvisions AG beispielsweise Humankapital, Kundenverbindungen, Patente, Marken, Lizenzen, Innovationen, Wissen – und Daten. Geschäftliche Aktivitäten und Prozesse hängen heute maßgeblich davon ab, ob und inwieweit es den Unternehmen gelingt, ihre Daten professionell zu managen und eine nachhaltige Datenqualität sicherzustellen. Was aber bringen Datenqualität und Stammdatenmanagement eigentlich genau? Oder: Welchen Schaden erzeugen schlechte Datenqualität und ein unzureichendes Master Data Management (MDM)?

Thomas C. Redman, Präsident der Navesink Consulting Group und Fachmann für Datenqualität, hat schon vor rund 20 Jahren (1996) geschätzt, dass der negative Effekt schlechter Datenqualität bei acht bis zwölf Prozent des operativen Gewinns liegt. Die Schätzung ist schon ein paar Jahre her, allerdings gibt es eine ganze Reihe weiterer eindrucksvoller Hinweise auf die Kosten schlechter Datenqualität. So ließ beispielsweise das The Data Warehousing Institute 2002 wissen, schlechte Datenqualität koste die US-Wirtschaft jedes Jahr 600 Mrd. Dollar – das entsprach damals immerhin fünf Prozent des amerikanischen BIPs.

Interessant ist die von Melissa Data aufgestellte Faustregel 1-10-100. Sie besagt, dass es durchschnittlich einen Dollar kostet, Kundenstammdaten bei der initialen Dateneingabe mithilfe professioneller Software-Unterstützung zu verifizieren, um das Prinzip „first time right“ zu realisieren. Dieser Betrag steigt auf zehn Dollar pro Datensatz, wenn von Zeit zu Zeit Datenbereinigungen erforderlich sind, um eine ursprünglich fehlerbehaftete Dateneingabe und Dubletten zu korrigieren. 100 Dollar aber kostet es pro Datensatz, wenn man überhaupt nichts tut. Der Grund sind fehlgeleitete Lieferungen, Postrückläufer und verpasste Marketing-Chancen durch fehlerhafte oder unvollständige Kontaktdaten. Um sich das einmal in Zahlen vorzustellen: Ein Unternehmen mit 3.000 Kundendatensätzen, was nicht übermäßig viel ist, kostet Nichtstun 300.000 Dollar. Die regelmäßige Bereinigung des Datenbestands schlägt mit 30.000 Dollar zu Buche. Dagegen fallen für das Prinzip „first time right“ mithilfe einer geeigneten IT-Lösung nur 5.000 Dollar an. Die Investition in eine solche Lösung amortisiert sich also schnell.

Welchen konkreten Nutzen Datenqualität bringt, hat die Bostoner Aberdeen Group in einem Research Brief im Juli 2013 zu der Frage „Why data quality matters?“ mit Zahlen belegt. Unternehmen, die von sich sagen, dass sie über Datenqualität verfügen, bekunden eine um 20 Prozent höhere Genauigkeit und eine um 15 Prozent höhere Vollständigkeit ihrer Datensätze gegenüber Unternehmen, die Probleme mit der Datenqualität haben. Unternehmen mit Datenqualität benötigen gegenüber solchen ohne 33 Prozent weniger Zeit pro Mitarbeiter in der Woche, um Daten zu suchen, und konstatieren nur halb so viele Datensätze mit signifikanten Fehlern (11 gegenüber 22 Prozent). Datenqualität wirkt sich aber nicht nur positiv auf die Genauigkeit und Effizienz des Datenbestandes an sich aus, sie führt auch zu handfesten betrieblichen Verbesserungen. Von den Unternehmen mit Datenqualität sind 46 Prozent mit der Genauigkeit ihren geschäftlichen Entscheidungen zufrieden; von Unternehmen, denen Datenqualität fehlt, sind es dagegen nur 19 Prozent – ein Performance-Unterschied von 142 Prozent. Unternehmen mit Datenqualität haben zu 51 Prozent vollständiges Vertrauen in ihre Daten; Unternehmen ohne Datenqualität dagegen nur zu 30 Prozent – ein Performance-Unterschied von 70 Prozent.

Best in Class versus Nachzügler


Neben dem Nutzen von Datenqualität hat Aberdeen 2013 auch den Nutzen von Stammdatenmanagement untersucht. Dabei wurde herausgearbeitet, was die Best-in-Class-Unternehmen (Top 20 bei Aufrechterhaltung eines hohen Grads von Datenqualität und leichter Handhabung der Datensysteme) vom Branchendurchschnitt und vor allem von den Nachzüglern (Bottom 30) unterscheidet. Die Top-20-Unternehmen haben zum einen lediglich acht Prozent Datensätze mit signifikanten Fehlern, während es bei den Nachzüglern 35 Prozent sind. Zudem benötigen jene nur 1,5 Stunden, um einen Datenfehler zu beheben, diese aber stattliche 55 Stunden. Die Best in Class verfügen in der Regel über einen zentralisierten „Golden Record“, brauchen also auch je Fehler nur eine Änderung vorzunehmen, die dann automatisch in alle angeschlossenen Systeme übernommen wird. Wie sehr sich diese Zahlen zu einem veritablen Problem auswachsen, wird deutlich, wenn man berücksichtigt, dass das durchschnittliche Unternehmen in der Untersuchung über alle Domänen 250.000 Stammdatensätze hat. Die Anzahl der fehlerbehafteten Datensätze und die Mannstunden, die benötigt werden, um sie zu beheben, lassen sich leicht errechnen.

Die Top 20 sind im Vergleich zu den Nachzüglern auch zufriedener mit der Qualität der zur Verfügung gestellten Informationen (64 gegenüber 23 Prozent) und mit ihren geschäftlichen Entscheidungen (42 gegenüber 25 Prozent). Einzelne Performance-Verbesserungen und höhere Zufriedenheitswerte mögen noch nicht hinreichend sein, um eine größere Stammdateninitiative in die Wege zu leiten.

Dies ist ein Artikel aus unserer Print-Ausgabe 12/2017. Bestellen Sie ein kostenfreies Probe-Abo.

Aber: „The benefits of data management are often greater than the sum of its individual performance boosts”, konstatiert Aberdeen. So wiesen die Top-Performer die größten jährlichen Verbesserungen bei z.B. Erträgen, Kundenbindung und Kostenreduzierungen auf. Die Best-in-Class-Unternehmen berichten von einem organischen Wachstum in Höhe von 18 Prozent in den vorangegangenen zwölf Monaten (wozu sicherlich noch andere Aspekte beigetragen haben), während es im Branchendurchschnitt neun und bei den Nachzüglern gar nur sieben Prozent sind. Kundenbindung und -zufriedenheit verbesserten sich um zehn respektive neun Prozent (je drei Prozent bei den Nachzüglern). Und alle Prozessverbesserungen führten zu einer Reduzierung der operativen Kosten um acht Prozent (ein Prozent bei den Nachzüglern).


Darum kann schlechte Datenqualität teuer werden:

  •   Externe Kommunikationskosten, z.B. durch Postrückläufer, Doppelerfassungen, Mehrfachkontaktierungen, ineffiziente Marketingkampagnen
  •   Interne Verwaltungskosten, etwa durch Beschaffung richtiger Daten, Abstimmung und händische Aktualisierung, fehlenden Gesamtüberblick über einen Kunden, ineffiziente manuelle Bereinigung fehlerhafter oder veralteter Daten
  •   IT-Kosten, z.B. durch Datenmigrationsaufwand, programmiertechnische Wiederaufbereitung mangelnder Datenqualität
  •   (Fehl-)Entscheidungskosten, beispielsweise durch Fehlinterpretationen aufgrund falscher oder nicht zusammenfassbarer Quelldaten
  •   Produktionskosten, etwa durch Rückrufaktionen wegen Produktionsmängeln, die auf fehlerhaften Produktionsdaten oder Berechnungen beruhen
  •   Umsatzeinbußen, z.B. durch ineffizientes Cross-Selling oder nicht zustellbare Rechnungen


Bildquelle: Thinkstock/Photodisc

©2018 Alle Rechte bei MEDIENHAUS Verlag GmbH