Stammdatenmanagement im Trend

Stimmungsbarometer für den BI-Markt

Hinsichtlich der Weiterentwicklung von Business Intelligence (BI) bleiben Datenqualität und Stammdatenmanagement weiterhin im Trend.

Stimmungsbaromenter für den Business-Intelligence-Markt

Stimmungsbaromenter für den Business-Intelligence-Markt

Im „BI Trend Monitor“ untersucht das Marktforschungsunternehmen Barc die Trends im Business-Intelligence- und Datenmanagementmarkt. Für die Ausgabe 2019 hat man rund 2.700 Nutzer, Berater und Software-Anbieter gebeten, die wichtigsten BI-Trends zu bewerten. Dabei stehen Datenqualität und Stammdatenmanagement an erster Stelle. Data Governance folgt auf Platz vier vor dem Thema „Etablierung einer datengetriebenen Kultur“. Allein diese drei BI-Trends zeigen, wie wichtig das Thema „Daten“ für eine funktionierende Business Intelligence (BI) ist. Eine hohe Datenqualität, Regeln und Prozesse für den Umgang mit Daten und die Einbeziehung aller relevanten Geschäftsbereiche (nicht nur IT) sind dafür wesentliche Voraussetzungen. Das ist zwar offensichtlich und versteht sich von selbst, allerdings gibt es doch zu denken, wenn etwa das Thema Datenqualität seit der ersten Ausgabe von „The BI Survey“ im Jahr 2002 jedes Jahr wieder zu den drei wichtigsten Problemen für Benutzer von BI-Software gezählt wird (siehe unten).

Nun stehen allerdings gültige Daten im Mittelpunkt der strategischen, taktischen und operativen Steuerung jeder Organisation, wie die Analysten zu Recht bemerken. Wie die BI-Umfrage zeigt, hatten Unternehmen jedoch immer schon Schwierigkeiten, eine hohe Datenqualität sicherzustellen. Im digitalen Zeitalter, in dem Daten zunehmend als Produktionsfaktor zu sehen seien, steige jedoch der Druck, dauerhaft qualitativ hochwertige Daten vorzuhalten, so Barc. Von den wachsenden Herausforderungen für die Datenqualität muss man sich nur eine einzige merken, um das erforderliche „Gefühl der Dringlichkeit“ zu entwickeln: Falsche Daten führen in datengetriebenen Umgebungen zu falschen Informationen und damit zu falschen Entscheidungen.

Darüber hinaus gebe es, so die Analysten weiter, Aspekte, die die Organisation dazu zwingen, für zuverlässige Daten zu sorgen. Dazu gehöre die Notwendigkeit, auf dynamisch sich ändernde Marktanforderungen mit Transaktionen flexibel zu reagieren. Ein effektives Stammdatenmanagement könne dabei der entscheidende Faktor für die Minimierung der Integrationskosten sein. Darüber hinaus seien immer mehr abteilungsübergreifende Analysen von integrierten Datensätzen gefordert. Insbesondere datengetriebene Unternehmen seien auf qualitätsgesicherte Stammdaten angewiesen, um Geschäftsprozesse optimieren und neue (datengesteuerte) Dienstleistungen und Produkte entwickeln zu können. Die Verwaltung und Verwendung rasant wachsender Datenmengen und strengere Compliance-Anforderungen kämen hinzu.

Zu allem Überfluss werden die analytischen Landschaften von Organisationen immer komplexer, bemerken die Marktforscher. Unternehmen sammelten immer mehr unterschiedlich strukturierte Daten aus diversen Quellen und implementierten gleichzeitig neue Analyselösungen. Dies erhöhe die Bedeutung konsistenter Stammdaten drastisch. Nur wenn die Stammdaten gut verwaltet und in hoher Qualität bereitgestellt werden, könnten Unternehmen das volle wirtschaftliche Potential ihrer Daten ausschöpfen.

Erfolgsfaktoren für verlässliche Stammdaten


Um zu verlässlichen Stammdaten zu kommen, müssen – so der Software-Anbieter Zetvisions AG – drei Säulen in den Blick genommen werden, deren Inhalte in einer Datenstrategie definiert werden: Organisation, Prozesse und Technologie. In organisatorischer Hinsicht geht es um eine Aufbauorganisation, die die Nutzung von Daten als Wertschöpfungsfaktor unterstützt. Wesentliche Aufgabe dabei ist die Festlegung von Rollen, also die Definition und Zuordnung von Aufgaben und Kompetenzen zu Personen. Typische Rollen für das Datenqualitäts- und Stammdatenmanagement seien Data Owner („Daten­eigner“, im Fachbereich), Data Steward („fachlicher Datenverwalter“, meist im Fachbereich), Data Manager („technischer Datenverwalter“, meist in der IT) und Data User („Anwender“, im Fachbereich und in der IT).

Zur Steigerung der Datenqualität oder zur Absicherung des bereits erreichten Datenqualitätsniveaus habe sich, so die Barc-Autoren, der sogenannte Datenqualitätszyklus als Best-Practice-Prozess erwiesen. Dabei handele es sich um einen iterativen Prozess, der verdeutliche, dass Datenqualität kein einmaliges Projekt sei. Der Datenqualitätszyklus besteht aus fünf Phasen: (1) Definition der Datenqualitätsziele, (2) Datenanalyse, (3) Bereinigung der (Stamm-)Daten, (4) Anreicherung der Daten (z.B. mit Geodaten oder soziodemografischen Informationen) und (5) kontinuierliche Überwachung und Überprüfung der Daten. Die verschiedenen Phasen werden typischerweise den vorgenannten Rollen zugeordnet.

Dies ist ein Artikel aus unserer Print-Ausgabe 5/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Die meisten der heute auf dem Markt befindlichen Technologien schließlich seien auf den Datenqualitätszyklus abgestimmt und böten umfassende Funktionen, um die verschiedenen Benutzerrollen in ihren Prozessen durch Software-Funktionen und die erforderliche IT-Architektur zu unterstütz en. Ein IT-gestütztes Stammdatenmanagement verhindert, dass Stammdaten mehrfach und unsauber gepflegt werden und am Ende verfälschte, unvollständige und inkonsistente Daten die tägliche Arbeit verzögern und unnötigen Aufwand erzeugen. Es sorgt zudem für einen einheitlichen Datenpool („Golden Record“) über alle Stammdatendomänen hinweg (Multi-Domain-Lösung), aus dem alle angeschlossenen Systeme bedient und „saubere“ Berichte sowie Auswertungen erstellt werden können. Um Datenqualität systematisch zu verbessern und zu sichern, sollte in die von den jeweiligen Anwenderrollen verwendeten Benutzeroberflächen eine Workflow-Unterstützung für die Definition und Umsetzung entsprechender DQ-Prozesse integriert sein. Da sich der ­Datenbestand ständig verändert und neue Datenarten hinzukommen, gewährleistet ein Regelmanagement-System die Definition von Datenvalidierungs- und Geschäftsregeln. Schließlich: Monitoring-Komponenten informieren über aktuelle Geschäftsergebnisse und Reporting-Module unterstützen die Auswertung und übersichtliche Darstellung von relevanten Kennzahlen und Eigenschaften der Datenlandschaft.


Datenqualität – eine „unendliche Geschichte“

Zum Zustand der Datenqualität in den Unternehmen und zu ihren Kosten gibt es verschiedene Untersuchungen. Eine aktuelle stammt von dem Software-Anbieter Veritas Technologies. In seinem Auftrag wurden 1.500 IT-Entscheidungsträger in 15 Ländern (darunter auch Deutschland und die Schweiz) befragt. Das Ergebnis: Unternehmen schätzen, dass sie pro Jahr mehr als 2 Mio. US-Dollar durch die Unzulänglichkeiten ihres Datenmanagements verlieren. 36 Prozent der IT-Entscheidungsträger sagen, Mitarbeiter seien aufgrund von Datensilos weniger effizient, während 38 Prozent angeben, ihr strategischer Entscheidungsprozess verlangsame sich durch ineffektive Datenmanagement-Prozesse. Im Durchschnitt verlören Mitarbeiter täglich zwei Stunden bei der Suche nach erforderlichen Daten.


Bildquelle: Getty Images / iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok