Barrieren abbauen und Zuwege schaffen

Neue Perspektiven bei der Datenanalyse

Datenanalyse gilt seit jeher als Feld für Spezialisten und Experten. Mit neuen Ansätzen sollen zunehmend auch fachfremde Anwender die Erschließung und Interpretation von Geschäftsdaten mitgestalten können. Trotzdem kommt es dabei immer noch auf das richtige Zusammenspiel mit der IT an.

  • Ein Bagger, der ein Haus einreißt.

    Hürden aus dem Weg räumen: Der Trend zum Self-Service in der Business Intelligence eröffnet neue Möglicheiten. ((Bildquelle: Thinkstock/iStock))

  • Matthias Thurner, CTO, Unit4 Prevero

    „Man muss vor allem verstehen, wie die zugrunde liegenden Daten strukturiert sind und wie sie zusammenhängen”, rät Matthias Thurner, CTO, Unit4 Prevero. ((Bildquelle: Unit4 Prevero))

  • Dr. Rolf Gegenmantel, Chief Product Officer der Jedox AG

    „Fachanwender müssen in der Lage sein, Planungs- und Analyseaufgaben eigenständig und ohne Abhängigkeit von IT-Experten zu beherrschen”, meint Dr. Rolf Gegenmantel, Chief Product Officer der Jedox AG. ((Bildquelle: Jedox AG))

  • Peter Küssner, Geschäftsführer von Cubeware

    „Datenarbeit ist keine One-Man-Show, sondern ein Zusammenspiel aus technologischen und organisatorischen Aspekten”, so Peter Küssner, Geschäftsführer von Cubeware. ((Bildquelle: Cubeware))

Glaubt man dem „BI Trend Monitor 2018“, dann sind sich Anwender und Experten einig: Unabhängigkeit gehört für einen großen Teil der Befragten mit zu den wichtigsten Aspekten bei der geschäftlichen Datenanalyse. Änderungen an Datenmodellen und Auswertungsmechanismen vornehmen, ohne dafür die Hilfe der IT-Kollegen in Anspruch zu nehmen – ein nachvollziehbares Interesse, können Fachabteilungen so doch deutlich agiler handeln als in der ständigen Abhängigkeit zu externen Spezialisten. Das Thema „Self-Service” belegte bei der Befragung des Business Application Research Center (Barc) mit rund 2.770 Teilnehmern dementsprechend den dritten Platz unter den 20 wichtigsten Trends der Branche, noch vor Data Governance und Real-Time-Analytics.

„Fachanwender müssen in der Lage sein, Planungs- und Analyseaufgaben eigenständig und ohne Abhängigkeit von IT-Experten zu beherrschen”, meint auch Dr. Rolf Gegenmantel, CPO bei der Jedox AG. Flexibilität wäre nicht zuletzt einer der Hauptgründe, warum in der Unternehmensrealität Excel noch immer das meistgenutzte Business-Intelligence- und Planungswerkzeug sei. Moderne Software für Business Intelligence (BI) und Corporate Perfomance Managament (CPM) sollten vor diesem Hintergrund so gestaltet sein, dass man mit guten Excel-Kenntnissen und wenigen Tagen Training auch die typischen Aufgaben zum Aufbau, zu der Integration und dem Betrieb einer entsprechenden Anwendung beherrschen könne. Matthias Thurner, CTO von Unit4 Prevero, glaubt, dass man vor allem verstehen müsse, wie die zugrunde liegenden Daten strukturiert seien. Ein fortgeschrittener Anwender sollte diese Daten zudem in einem mehrdimensionalen Datenmodell in Dimensionen, Attribute und Werte übersetzen können. Zudem sei wichtig, dass dieser auch wisse, wie die relevanten Kennzahlen berechnet und verdichtet werden können. Zum Experten müsse man dafür nicht zwangsläufig werden. Ein Controller mit einer gewissen Affinität zur Software könne bereits die nötigen Kompetenzen mitbringen, so Thurner.

Dies ist ein Artikel aus unserer Print-Ausgabe 11/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Ein wesentlicher Punkt für die sinkenden Hürden bei der Datenanalyse ist nicht zuletzt auch die fortschreitende Visualisierung: „Mittels grafischer Mapping-Methoden lassen sich Beziehungen zwischen Daten aus unterschiedlichen Vorsystemen einfach herstellen und Vorberechnungen für Kennzahlen definieren”, erklärt Peter Küssner, Geschäftsführer von Cubeware. Für ihn eine willkommene Entwicklung, würden doch vor allem die Fachanwender das nötige Verständnis für die spezifische Geschäftslogik der jeweiligen Fachbereiche mitbringen. Trotz des Trends zum Self-Service bleibt ein koordiniertes Zusammenspiel zwischen den beteiligten Abteilungen ein wichtiger Faktor für den erfolgreichen Einsatz von BI-Software. Inhaltlich sei dabei die Fachabteilung führend, wie Rolf Gegenmantel betont. Systemverantwortliche für Betrieb und Technik der Vorsysteme seien dagegen historisch meist in der IT zu finden. Mit der zunehmenden Etablierung von Cloud-Lösungen könne man allerdings beobachten, dass sich diese Aufgaben zu den Software-Anbietern der verschiedenen Systeme verschieben, so Gegenmantel.

Für Peter Küssner hängt die Rolle der IT unmittelbar mit der Komplexität der Systemlandschaft zusammen, die berücksichtigt werden muss. Heißt: Je mehr Systeme in den BI-Prozess integriert werden sollen, desto umfangreicher muss auch die IT-Abteilung einbezogen werden. Gerade bei größeren Projekten dürfe man strategische, unternehmensweite Belange nicht aus den Augen verlieren, so Küssner. Für die Koordination im Unternehmen sei vor allem wichtig, dass die Software modular aufgebaut ist, weil sich so administrative Aufgaben im Datenmanagement und Datenmodellierungsprozess von denen im Reporting-, Planungs- und Analyseprozess loslösen lassen würden, was wiederum die Aufgabenverteilung unter den jeweiligen Abteilungen vereinfachen könne. „Datenarbeit ist keine One-Man-Show, sondern ein Zusammenspiel aus technologischen und organisatorischen Aspekten”, so sein Befund. Führe man sich die Evolution von Business Intelligence vor Augen, werde aber ohnehin augenfällig, dass sich sowohl die fachliche als auch die technische Anwendungshoheit zusehends in Richtung der Fachabteilungen verschiebe.

Abhängigkeiten vermeiden

Während sich die Frage nach der Koordination zwischen den Abteilungen vor allem für Unternehmen stellt, die sich bereits für eine BI-Lösung entschieden haben, befürchten Neueinsteiger oft ganz andere Hürden. Das können sowohl die kostspielige Einbindung und dauerhafte Abhängigkeit von externen Kräften sein als auch zeitaufwendige Schulungsprozesse. Gerade über Letzteres ließe sich laut Rolf Gegenmantel keine pauschale Aussage treffen. Eine typische Neueinführung umfasse verschiedene Aufgaben wie die Datenintegration, Modellierung zur Abbildung des Geschäftsmodells, Berichtserstellung und Administration. Die notwenige Tiefe, mit der man sich den verschiedenen Themen widmen müsse, hänge von der Komplexität der zu lösenden Gesamtaufgabe ab. Ausufernde Schulungsphasen brauche man in der Regel allerdings nicht befürchten: „Unsere Erfahrung zeigt, dass man für ein typisches Einstiegsprojekt mit drei bis fünf Tagen vor Ort bzw. Online-Training und fünf bis zehn Tagen Coaching sehr gut vorbereitet ist”, so Gegenmantel.

Ähnlich schätzt auch Peter Küssner den Schulungsaufwand für Analysten ein, betont aber, dass der Aufwand massiv von den Vorkenntnissen der Organisation und der Rolle, die ein Mitarbeiter im BI-Prozess einnehmen soll, abhänge. So sei für reine Informationskonsumenten in der Regel gar kein Training erforderlich, während Datenarchitekten und ETL-Entwickler bis zu 13 Tage Einarbeitungshilfe benötigen könnten – je nach analytischem Reifegrad des Unternehmens. Matthias Thurner sieht für „normale” Anwender ebenfalls keinen zwingenden Schulungsbedarf, da die Software in der Regel sehr intuitiv und selbsterklärend sei. Auch er rät lediglich bei Anwendern, die Datenwürfel definieren, die Datenstrukturen festlegen und komplexe Berichte oder Applikationen bauen, zu einer mehrtägigen Schulung.

Während sich das Erschließen von Ergebnissen aus BI-Prozessen für Endanwender in der Regel verhältnismäßig unkompliziert gestaltet, braucht es für die notwendige Vorarbeit definitiv mehr Kompetenzen. Wer ohnehin schon mit knappen Kapazitäten haushalten muss, kann da schnell an eine Auslagerung denken. Davon rät Rolf Gegenmantel allerdings ab: „Dauerhafte Abhängigkeiten eines Unternehmens von externen Dienstleistern und Systemspezialisten, teilweise zur Durchführung operativer Tagesgeschäftsaufgaben, sollten der Vergangenheit angehören.” In kleinen und mittelständischen Unternehmen zeige die Erfahrung, dass es am effizientesten sei, externe Spezialisten eher als Coach zur Unterstützung der ersten Schritte sowie zur Abstimmung grundsätzlicher Architektur- und Designentscheidungen einzubeziehen. Peter Küssner pflichtet dem bei: „Wir sehen BI als eine geschäftskritische Kompetenz und empfehlen deshalb unseren Kunden immer, so viel Know-how wie möglich intern aufzubauen und so wenig Kompetenzen wie möglich diesbezüglich nach außen wegzugeben, um sich langfristig nicht von Dritten abhängig zu machen.” Externe Berater seien für die Initialisierung gut und um punktuelle Ressourcenengpässe hinsichtlich Quantität und Qualität abzufedern, nicht aber, um den dauerhaften Betrieb zu gewährleisten.

Mehr als schöne Berichte

Zu planen, wer mit der Einführung eines BI-Prozesses an welcher Stelle sitzt und welche Aufgaben übernimmt, ist eine Sache. Eine weitere große Herausforderung besteht darin, vorab einen analysefähigen Datenpool aufzubauen, auf dessen Basis die Software überhaupt zuverlässige Ergebnisse erstellen kann. Dafür müsse der ETL-Prozess (Extract-Transform-Load), mit dem man die Daten aus Vorsystemen oder aus anderen Datenquellen übernimmt, laut Matthias Thurner so aufgebaut sein, dass bereits während des Ladevorgangs geprüft werde, ob die Datenqualität passe oder ein Eingriff erforderlich sei – z.B. um Dubletten zu entfernen. Nicht zuletzt solle man für jede Datenquelle jemanden finden, der die Daten in dieser Datenquelle kennt und weiß, wie sie strukturiert sind, so Thurner: „Wenn das nicht gegeben ist, hat man letztlich auch nicht die Möglichkeit, die Daten richtig zu interpretieren.”

Peter Küssner betont, dass die Strukturierung und Bereinigung der Daten idealerweise bereits innerhalb der Vorsysteme geschehen sollte, noch bevor die Daten überhaupt in ein analysefähiges Datenmodell übernommen werden. Durchzusetzen sei das vor allem durch eine Sensibilisierung der Fachanwender für das Thema Datenqualität. Die sollten die Stammdatenpflege innerhalb der einzelnen System nämlich am besten selbst durchführen, da sie ihre Daten in der Regel auch am besten kennen würden: „So wird von Anfang an verhindert, dass ein weiterführendes Datenmodell überhaupt erst korrumpiert wird.”

Letztendlich sei es wichtig zu verstehen, dass Informationsprozesse mehr sind als das Verfügbarmachen von schönen Berichten und Visualisierungen. Es ginge darum, ein integratives Nervensystem an Daten zu initiieren, das es ermöglicht, End-to-end-Applikationen von den Vorsystemen bis hin zu den strukturierten Informationen aufzubauen. Die sollen nicht nur hübsch aussehen, sondern den Anwender bei der Entscheidungsfindung unterstützen.

©2018Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok