Klartext: Ansatz kritisch hinterfragen

Was ist neu an Self-Service BI?

„Self-Service BI“: Die Idee, Analysen und Reports mittels intuitiver Analysewerkzeuge spontan, direkt und ohne Hilfe der IT zu erstellen, ist vor allem für den Anwender verführerisch. Er gewinnt den Eindruck, als wären alle Probleme der Vergangenheit endlich auf einen Schlag gelöst. Ist das aber wirklich eine reine Technik-Frage? Und ist das wirklich etwas Neues?

Markus Weber, Geschäftsführer der Samac Software GmbH: "Ohne zentrale Definition ist das Report-Chaos vorprogrammiert!"

Business Intelligence als Oberbegriff für die Sammlung, Speicherung und Analyse von Daten wird sehr unterschiedlich gebraucht. Am einen Ende der Skala bereitet die IT-Abteilung zentral die Daten vollständig auf und erstellt daraus auf Anforderung der Fachabteilungen fertige Berichte. Auf dem System i wird das bis heute oft direkt – ohne Unterstützung durch BI-Tools – mit Programmen erledigt. Das gilt zwar als umständlich, teuer und komplex, doch wird dies in der Mehrheit der Firmen so gehandhabt.

Am anderen Ende der Skala erhalten die Anwender jeweils Extrakte der Rohdaten für ihre Auswertungszwecke. Sie bereiten diese Daten zunächst auf und erarbeiten daraus manuell ihre eigentlichen Berichte. Hier findet – aufgrund seiner Flexibilität – überwiegend Excel Verwendung.

Zwischen diesen beiden Extremen etabliert sich – angeregt von scheinbaren Innovationen wie der In-Memory-Technik – derzeit „Self-Service BI“. Der Gedanke, Analysen und Reports mittels neuer intuitiver Analysewerkzeuge spontan, direkt und ohne Hilfe der IT zu erstellen, ist vor allem für den Anwender verführerisch. Er gewinnt den Eindruck, als wären alle Probleme der Vergangenheit endlich auf einen Schlag gelöst. Ist das aber wirklich eine reine Technik-Frage? Und ist das wirklich etwas Neues?

Ansatz kritisch hinterfragen

Aus Sicht des Gesamtunternehmens ist dieser Ansatz kritisch zu hinterfragen. Denn was der eine User als intuitiv empfindet, mag den nächsten bereits abschrecken. Außerdem wird beim zentralen Ansatz der größte Teil der Zeit damit verbracht, die unterschiedlichen Datenquellen konsistent aufzubereiten und mit einheitlichen Geschäftsregeln zu einem stimmigen Gesamtsystem zusammenzuführen. Um das möglichst effizient zu schaffen, ist detailliertes Wissen über alle zusammengeführten Daten notwendig – was Anwender nicht unbedingt haben. Zeitaufwendig ist auch die Abstimmung und Koordination bei der Erstellung neuer Berichte – die Berichtserstellung selbst geht auch schon heute leicht von der Hand.

Wer diese zentral zu erbringenden Tätigkeiten auf die Anwender verlagert, entlastet zwar die IT, erkauft sich diese Entlastung aber durch unkoordinierte, redundante Tätigkeiten und wohl auch mit inkonsistenten Ergebnissen in den Fachabteilungen, die eine unterschiedliche Sicht auf Kennzahlen und Begriffe wie Kosten und Deckungsbeiträge haben.

Ohne zentrale Definition ist das Report-Chaos vorprogrammiert. Ein einheitliches Gesamtbild lässt sich nicht mehr ohne weiteres ableiten, selbst widersprüchliche Ergebnisse auf Detail- und Gesamtebene sind in der Praxis immer wieder zu beobachten. Neben begrifflichen sind auch zeitliche Abgrenzungen in diesem Szenario schwierig.

Es ist also sinnvoll, den Abteilungen alle Daten zu überlassen, die für andere Abteilungen nicht relevant sind; hiermit muss das zentrale System nicht überfrachtet werden. Diese Daten können dann auch mit den zentralen Daten gemeinsam analysiert werden. Dabei ist immer darauf zu achten, dass es nicht zu Parallelwelten kommt. Deshalb sind die in der Abteilung anfallenden Daten regelmäßig darauf hin zu überprüfen, ob sie nicht auch für andere Abteilungen relevant sind – und folglich zentral bereitgestellt werden sollten.

 

 

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok