Analytics, Big Data, Business Intelligence

Wichtigste Kennzahl ist der Anwender

Im Geschäft mit Datenanalysen herrscht Aufbruchstimmung: Aufwendige Konsolidierungen, Bereinigungen und Aufbereitungen auf Basis überdimensionierter Data Warehouses weichen agilen Business-Intelligence-Methoden (BI), wie etwa der BI-Anbieter Qklitech unterstreicht.

Business-Intelligence-Analysen (BI) zählen zu den Königsdisziplinen in der IT. Dabei geht es darum, Erkenntnisse zu erhalten, um bessere operative oder strategische Entscheidungen für Unternehmensziele erreichen. Dies geschieht mit Hilfe analytischer Konzepte, die Daten über das eigene Unternehmen, die Mitbewerber oder die Marktentwicklung im Hinblick auf den gewünschten Erkenntnisgewinn auswerten. Das führt zu profitableren Geschäftsabläufen, Kunden- und Lieferantenbeziehungen, Kostenreduktionen und einer höheren Wertschöpfung – soweit die Theorie.

Oft macht allerdings ein technologischer Aspekt das Streben nach perfekten Entscheidungen zunichte, bevor die erste Analyse erfolgt ist: Daten aus allen Systemen des gesamten Unternehmens und seiner Tochtergesellschaften müssen in der Regel vorab konsolidiert, fehlerbereinigt und entsprechend aufbereitet werden. Das wiederum ist mit teils immensen finanziellen und zeitlichen Aufwänden verbunden, weil klassische OLAP-basierte Analysemethoden auf ein existierendes Data Warehouse aufbauen, das als Pool für alle gesammelten Informationen dient.

Ein Data Warehouse ist heutzutage jedoch nicht mehr zwingend notwendig. Die Zukunft spielt sich vielmehr innerhalb der BI-Lösungen ab. Moderne Analysewerkzeuge nutzen Konnektoren, die es ermöglichen, auf unterschiedlichste Datenquellen und -formate zuzugreifen, ohne dass die Informationen im Vorfeld explizit an einer zentralen Stelle gesammelt und aufbereitet werden müssen. Dazu gehören Konnektoren für die Anbindung an ERP-Systeme, etwa von SAP, oder für den Zugriff auf Webservices sowie für die Anbindung von Flatfiles, wie sie etwa mit Excel erzeugt werden. Hinzu kommen Konnektoren, die von Partnerunternehmen entwickelt werden und für den Zugriff auf proprietäre Systeme sorgen sowie Schnittstellen, die speziell für Anforderungen mit Big Data konzipiert wurden.

Zig Datenquellen anzapfen

Gerade bei Startup-Unternehmen und im Mittelstand können diese technologischen Entwicklungen Zuspruch erhalten. Denn der Aufbau eines Data Warehouses bedeutet sehr viel Komplexität für ein BI-Projekt. Obendrein dauert es mitunter Monate, wenn nicht Jahre und verzögert die Zeit, bis Analysen gefahren werden können oder die Ergebnisse für die Unternehmensplanung vorliegen. Von daher sollten moderne BI-Projekte eine Multisource-Fähigkeit gewährleisten.

Unabhängig davon, ob ein Data Warehouse bereits existiert oder geplant ist, muss eine BI-Lösung eigenständig in der Lage sein, Daten aus verschiedensten Quellen zu konsolidieren und auf einer Benutzeroberfläche visuell ansprechend darzustellen. Bezüglich "Big Data" muss gewährleistet sein, dass die Relevanz und der Kontext, die mit den Analysen in Zusammenhang stehen, in das BI-System übernommen werden können. Das bedeutet: Man muss die Daten herausfiltern, die relevant sind und mit den Informationen in den gewünschten Kontext mit anderen Informationen stellen, bevor die Darstellung erfolgt. Mit einer sogenannten "Business Discovery Plattform", beispielsweise von Qliktech, ist es unerheblich, ob die zu analysierenden Daten bereits konsolidiert in einem Data Warehouse liegen oder aber erst Rohdaten aus den verschiedenen Systemen durch die BI-Lösung selbst konsolidiert werden sollen.

Wichtiger als der Ort, an dem die Daten vorliegen, ist heute zudem, dass die Benutzerschnittstelle einer BI-Plattform an die Anforderungen der Anwender angepasst ist. Neue Werkzeuge arbeiten deshalb nicht mit umständlichen Drill-Down-Methoden – denn da müssen bereits begonnene Analysen neu gestartet werden, wenn sich eine neue Fragestellung ergibt. Moderne Lösungen kennen den Status aller Datenpunkte einer Abfrage und ermöglichen es, dass Analyse-Ergebnisse sich verändern, sobald sich ein Datenpunkt verändert. Möglich machen dies beispielsweise In-Memory-Technologien. Dabei wird In-Memory nicht allein dafür verwendet, Daten im Cache vorzuhalten. Vielmehr sitzen die gesamte Logik und sogar Funktionen für die Datensicherheit im Speicher.

* Der Autor, Stefan Jensen, ist Director Presales DACH bei Qliktech.

www.qlikview.com/de

Bildquelle: Jay Lopez/Stockxchng.com

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok