Self-Service-Business Intelligence

Freie Bahn für den Datenaustausch

Self-Service-Modelle für Business Intelligence (BI) ­erfordern aufwendige Maßnahmen für Governance und Datenschutz. Eine Vereinfachung könnten ­Datenkataloge und neue Architekturen der Datenhaltung bringen.

  • Freie Bahn für den Datenaustausch

    Im Bereich der Self-Service-Business Intelligence fehlt es durch Dezentralisierung häufig an passenden Governance-Strategien.

  • Freie Bahn für den Datenaustausch

    Carsten Bange, BARC-Geschäftsführer: „Nach einigen Jahren der Selbstbedienungs-BI sagen mittlerweile viele Fachabteilungen selbst, dass es nicht so weitergehen kann.“

Gerade im Bereich der „Self-Service-BI“ fehlt es durch die Dezentralisierung häufig an passenden Governance-Strategien, die mit der Auswertung von Massendaten noch wichtiger und komplexer werden. Ganz wichtig ist es, Regelwerke zu entwickeln, die auch akzeptiert werden, weiß Dr. Carsten Bange, Geschäftsführer des Business Application Research Center (BARC). Schließlich kam die Self-Service-Bewegung aus dem Wunsch der User nach Unabhängigkeit von allzu strengen, zentralen Vorgaben. „Bei der Akzeptanz für Governance sehen wir allerdings auch einige Fortschritte: Nach einigen Jahren der Selbstbedienungs-BI sagen mittlerweile viele Fachabteilungen selbst, dass es nicht so weitergehen kann“, stellt Bange fest. Um solche Regelwerke abzubilden, bieten sich Strategien wie Datenkataloge und Data Federations an.

Doch es gibt eine weitere Herausforderung im BI-Umfeld: Dass Erkenntnisse aus Daten Mehrwert erzeugen, wird zwar in der Breite verstanden, doch in der Praxis fällt gerade das Teilen von Daten vielfach noch schwer. KI-Disziplinen wie Deep Learning zur Text-, Bild- und Spracherkennung liefern immer öfter wichtige Ergebnisse, hängen aber komplett von der Datenmenge und -qualität ab, berichtet Christoph Schlueter Langdon, verantwortlich für Mobility Data Space beim Telekom Data Intelligence Hub. Überall dort, wo bessere Analyseergebnisse erst durch große Datenmengen (Big Data) entstehen, ist zugleich zu beobachten, dass sich Unternehmen schwertun, an ausreichende Datenvolumen heranzukommen. „Dazu tragen zwei Faktoren bei: Einerseits ist es ein Eigeninteresse, man denkt, die Daten für sich zu behalten, bringe einen Wettbewerbsvorteil. Andererseits müssen DSGVO-Auflagen erfüllt werden, was vielen Unternehmen noch schwerfällt“, so Schlueter Langdon, der auch Professor für Data Science & Analytics an der Peter Drucker School of Management der Claremont Graduate University ist.

Erst mit neuen, dezentralen Ansätzen könnte sich das ändern. So bietet die Fraunhofer-Initiative „International Data Spaces“ eine Architektur für den vertrauensvollen Austausch von Daten. „Dort, wo Daten zwischen Unternehmen oder innerhalb von Abteilungen eines Unternehmens ausgetauscht werden sollen, gilt es, die Daten nicht in einen Data Lake zu ‚kippen‘, sondern sie punktweise über bilaterale Absprachen zur Verfügung zu stellen“, erklärt Prof. Jan Jürjens, Director Research Projects, Fraunhofer-Institute for Software and Systems Engineering ISST. So entstehe zudem keine Abhängigkeit von dem jeweiligen Data-Lake-Betreiber. Solche internen Lösungen sind auch interessant, wenn es eine starke Trennung zwischen Unternehmensbereichen gibt, wie zwischen Produk-tion, Office, Vertrieb und Aftersales, wo Daten in Silos lagern. „Es geht auch viel interner Datenaustausch über das Internet und es ist damit weniger sicher“, stellt Jürjens fest. Beispielsweise ist es vielleicht für den Einkauf von Rohstoffen wichtig, schon perspektivisch aus der Produktionsplanung die Bedarfe zu kennen, oder eine Warnung aus dem Predictive-Maintenance-System soll die rechtzeitige Beschaffung eines Ersatzteils auslösen. Konzepte und Standards wie International Data Spaces (IDS) helfen, die nötigen Daten zu generieren, meint Christoph Schlueter Langdon: „Einfach, weil sie die Hürde reduzieren, Daten zu teilen, die man bisher wegen eines Mangels an Vertrauen nicht weitergeben wollte.“

Daten müssen verfügbarer werden

Dafür werden Teile der Architektur über Connectoren verknüpft, das sind Schnittstellen, über die Daten versendet werden. Zwischen zwei Connectoren wird ein sicherer Kanal aufgebaut und jede Datentransak-tion protokolliert. So lässt sich im Nachhinein nachweisen, wie und welche Daten ausgetauscht wurden und dass keine Manipulation erfolgt ist. Ein solcher Connector reicht die Daten von der Quelle an Software-Systeme weiter, die für eine Analyse genutzt werden. Sollen Daten z. B. aus Compliance-Gründen dabei nicht wandern, lässt sich über die Datenraumarchitektur auch mit „mobilem Code“ beispielsweise eine Analyse direkt auf den Daten ausführen. Allerdings sei ein solcher Ansatz mit Blick auf die großen BI-Anbieter noch Zukunftsmusik, meint Jan Jürjens. Aus seiner Sicht sind zudem Bestrebungen zu einer europäischen Datensouveränität auch für den Bereich der Datenanalytik wichtig.

Neben der Bereitschaft, Daten zu teilen, kommt es für die BI-Entscheidungsunterstützung aber auch auf deren Zusammenführung und Verfügbarkeit an. „Heute gilt allerdings für die Datenhaltung und Analyse immer noch häufig die Analogie: Jeder schlachtet seine eigene Kuh und hat Gemüse im Garten, statt im Supermarkt einzukaufen“, stellt Schlueter Langdon fest. Gefragt sind also Daten-Supermärkte, in denen Datenprodukte im Regal stehen, und Data Factories, die Rohdaten in solche Datenprodukte umwandeln. Ansätze wie der Telekom Data Intelligence Hub stellen entsprechende Funktionalität auf einer Cloud-basierten Plattform mit Open-Source-Werkzeugen bereit. Zugleich können auch zusätzliche Daten wie Wetter- oder Standortdaten in ihre Analysen einbezogen werden.
„In den letzten zwei Jahren ist das Thema ‚Datenkatalog‘ sehr populär geworden. Mit dem Metadaten-Management wird katalogisiert, welche Daten vorhanden sind, und es wird der Zugriff gesteuert. Datenkataloge sind ein gutes Instrument, weil sie nicht nur Einschränkungen für den Anwender bringen, sondern auch deutlichen Nutzen“, erklärt auch Carsten Bange. Denn oft hätten User Schwierigkeiten zu überblicken, welche Daten es im Unternehmen gibt.

Dies ist ein Artikel aus unserer Print-Ausgabe 07-08/2020. Bestellen Sie ein kostenfreies Probe-Abo.

Aus Sicht von Matthias Herkommer, Qlik-Manager Presales im deutschsprachigen Raum, geht es darum, Daten aus allen Bereichen in einem zentralen Marktplatz virtuell zu bündeln, als Referenzen auf die Quellen oder als physische Entitäten u. a. im Data Lake: In entsprechende Data Federations kann über einen Active Meta Data Catalogue festgelegt werden, welche Felder z. B. aus Datenschutzgründen verschlüsselt sein müssen oder welche Daten sensitiv sind.

Gerade bei großen Datenmengen hilft es perspektivisch beim Datenschutz, wenn Daten nicht immer wieder an unterschiedlichste Orte kopiert werden. Data Federation und Datenvirtualisierung tragen zudem dazu bei, die Flexibilität großer Analysen zu erhöhen, meint Carsten Bange. Dabei erfolgt der Zugriff auf die Kombination von Datenquellen erst zum Abfragezeitpunkt. Eine physische Persistierung in Data Marts oder Aggregationstabellen ist nicht mehr nötig. 

Data Federation und Virtualisierung für besseren Datenschutz

Zu beachten seien dabei aber insbesondere die Abfrageperformance und die Möglichkeit zur Ausführung komplexer Kalkulationen, meint Bange. Je komplexer und größer die Datenquellen und je unstrukturierter ihre Informationen, desto mehr sind moderne Konzepte gefragt. „Es geht immer öfter darum, IoT- und Big-Data-Systeme zentral an einem Ort zu integrieren und in Echtzeit große Datenmengen in die Cloud zu bringen“, so Herkommer. 

Dabei spielten zunehmend Verfahren wie Change Data Capture eine wichtige Rolle. Das meint die Erfassung von Änderungen an den Daten in den Quellsystemen anhand von Änderungs-Logs, die dann verzögerungsfrei z. B. als Kafka Data Stream oder in einem Cloud-Datawarehouse bereitgestellt werden. Qlik übernahm dafür im vergangenen Jahr den Datenintegrationsanbieter Attunity. In Verbindung mit der Analyse- und BI-Plattform soll die Analyse von Rohdaten beschleunigt werden, um in Echtzeit Erkenntnisse auch aus komplexen Datenquellen zu ziehen. 

Compliance und Governance sind in der Praxis gerade in der Selbstbedienungs-BI noch nicht gelöst. Denn während BI früher klar entwicklerfokussiert war, kümmern sich dabei zunehmend Anwender um das Datensammeln, die keinen entsprechenden Hintergrund haben. 

Herausforderung Self-Service-BI

Dazu passend haben sich Werkzeuge für die Datenvorbereitung etabliert, die fast alle klassischen BI-Anbieter im Programm haben. Für die Einhaltung von Datenschutz- und Governance-Vorgaben gibt es die Datenklassifikation. Auf dieser Basis muss zudem ein Zugriffskonzept etabliert werden, mit dem Rechte für die User gesteuert werden.

„Data Governance nimmt mit ,Self-Service-BI‘ stärker auf die Anwenderebene Einfluss. Das bedeutet, mehr Menschen zu erreichen und mehr Erklärungsbedarf – weil es dort allerdings um Schnelligkeit und einfache Bedienbarkeit geht, müssen einige Hürden überwunden werden“, meint Carsten Bange. Da bei Self Service BI der Single Point of Control fehlt, verlagert sich der Fokus deutlich stärker auf organisatorische Aspekte, meint Bange. „Neben der Datenqualität geht es dabei vor allem um eine einheitliche Nutzung von Kennzahlen, damit nicht jeder eigene KPIs und Berichte baut – das ist in der Praxis ein großes Problem“, konstatiert der BI-Experte.

Datenkompetenz fehlt in Deutschland

Entscheidend ist dabei das Thema „Ausbildung“ hin zu Data Literacy. Kompetenzen rund um Data Governance und die Aufbereitung von Kennzahlen erfordern andere Skills, als beim Zusammenbauen eines Berichts notwendig sind. Beim Thema „Datenkompetenz“ zeigen Studien immer wieder deutliche Lücken gerade bei den deutschen Anwendern, berichtet Bange. Eine Studie des Data-Literacy-Projekts (DLP) ergab, dass sich in Deutschland nur 17 Prozent der Teilnehmer für kompetent im Umgang mit Daten halten. Auf der Management-Ebene gibt es besonders große Defizite. „Das Datenvolumen auf der Welt verdoppelt sich alle zehn Monate, aber die Mitarbeiter können damit nicht ausreichend umgehen: Wer die Daten besser interpretieren kann, wird einen Wettbewerbsvorteil haben“, resümiert Wolfgang Kobek. 

Bildquelle: Getty Images/iStock/Getty Images Plus

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok