Data Governance

Fundament für die Analyse

Im Zuge der digitalen Transformation behaupten sich vor allem diejenigen Unternehmen, die aus großen Datenmengen schnell und effektiv entscheidungsrelevante Informationen extrahieren können. Voraussetzung hierfür sind allerdings eine entsprechende Aufbereitung und ein durchdachtes Qualitätsmanagement.

Fundament für die Analyse

Klare Regeln und eine durchdachte Strategie sind die tragenden Säulen für ein effektives Datenmanagement.

Ein Effekt der umfassenden Digitalisierung im Unternehmensumfeld ist eine bisher unbekannte Verfügbarkeit von Daten aus zahllosen verschiedenen Quellen. Neue Technologien wie KI oder Machine Learning analysieren diese Daten und liefern relevante Informationen, die dann als solide Basis fundierter Entscheidungen dienen können. Vor diesem Hintergrund hat SAS allein in den vergangenen Jahren weltweit hunderte Projekte in den verschiedensten Branchen durchgeführt. Eine Erkenntnis zeigt sich dabei zuverlässig: Nicht nur die Quantität, sondern vor allem die Qualität der Daten ist hier entscheidend. Die Ergebnisse von Analytics und KI-basierten Modellen können nämlich immer nur so gut sein wie die verwendete Datengrundlage.

Gerade große Unternehmen und Konzerne stehen beim Thema effektive Datenpflege oft vor großen Herausforderungen, denn ihre bisherigen Strukturen zur Datenspeicherung, -aufbereitung und -verwaltung haben sich mitunter nicht in der gleichen Geschwindigkeit entwickelt wie die Mengen an Daten, die genutzt werden kann. Deswegen mussten viele IT-Abteilungen lange damit leben, neue Datenformen in überholte Strukturen zu zwängen. Gelang das nicht, nahmen die frustrierten Fachabteilungen die Sache selbst in die Hand und etablierten so in Form von Excel-Tabellen, selbstgeschriebenem Code und anderen Maßnahmen eine unübersichtliche Schatten-IT und isolierte Datensilos. Kein Wunder also, dass Data Scientists einen Großteil ihrer Arbeitszeit dafür aufwenden, vorhandene Datensätze zu konsolidieren und aufzubereiten, während die tatsächliche Analyse einen wesentlich kleineren Teil ausmacht.

Klare Regeln erforderlich

Um die Aufbereitung und die Qualität der Daten nachhaltig zu verbessern, brauchen Unternehmen durchdachte und klare Regeln für ein effektives Datenmanagement. Dafür müssen sie zunächst eine Strategie definieren, die nicht nur operative Ziele berücksichtigt, sondern auch konkrete Maßnahmen umfasst. Auf der organisatorischen Seite sind das zum Beispiel der Entwurf einer geeigneten, zukunftsfähigen Datenarchitektur und die Entwicklung eines effektiven Data-Governance-Modells, genauso wie die Einrichtung einer robusten Datenverwaltung. So kann am Ende ein „Single Point of Truth“, ein zentraler Datenkatalog über sämtliche Datensilos und Anwendergruppen hinweg, entstehen. Die technische Umsetzung dieser Maßnahmen ist ein aufwendiger Prozess, für den es je nach Organisationsstruktur, -größe und -komplexität verschiedene Möglichkeiten gibt.

Unternehmen können beispielsweise mit Self-Service-Tools die Fachabteilungen mit in die Pflicht nehmen und so die Aufbereitung und Pflege von Datenbeständen aus der alleinigen Verantwortung der IT herauslösen. Das ist vor allem dann ratsam, wenn es innerhalb des Unternehmens nur eine geringe Anzahl von Spezialisten gibt und schnelle Ergebnisse erzielt werden sollen. Allerdings besteht bei diesem Ansatz auch immer ein Restrisiko, dass neue oder zusätzliche Datensilos entstehen, die eine einheitliche Data Governance unterminieren

Ist die IT-Abteilung personell gut aufgestellt, bietet sich der Einsatz von ETL-Prozessen durch erfahrende Data Scientists und andere Experten an. Sie können auch schwierigere Anforderungen erfüllen und sämtliche Maßnahmen permanent auf deren Konformität mit der übergeordneten Strategie überprüfen. Bei dieser Vorgehensweise dauert die zeitliche Umsetzung zwar länger, doch die involvierten Profis sorgen durch ständige Kontrolle der Upstream-Prozesse für eine bessere Integration der Daten und steigern so auch deren Gesamtqualität.

Automatisierung schafft Kapazitäten

KI-basierte Technologien wie Machine Learning kommen vor allem bei der Auswertung von Daten zum Einsatz, sie können aber für deren verbesserte Aufbereitung eingesetzt werden. Automatisierte Daten-Pipelines überwachen permanent den Streaming-Prozess und können Anomalien und Ausreißer schnell und effektiv erkennen. Zudem halten automatisierte Lösungen den zuständigen Experten den Rücken frei.

Unternehmen haben zahlreiche Möglichkeiten, um die Aufbereitung ihrer Daten effizienter zu gestalten und damit deren Qualität und Nutzen für sämtliche Geschäftsprozesse zu steigern. Die möglichen Maßnahmen können dabei auch je nach Unternehmensstruktur und Zielsetzung miteinander kombiniert werden. Wichtig ist, dass sie einer klar definierten Strategie folgen. Denn nur, wer eine valide und umfassende Sicht auf die Datenlage innerhalb seines Unternehmens hat, profitiert von schnelleren, informierten Entscheidungen und schöpft die operative Effizienz und die Aussagekraft seiner Analytics-Modelle wirklich aus.

Bildquelle: Getty Images/iStock/Getty Images Plus

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok