Big Data: Ende der klassischen Business-Intelligence-Lösungen?

Datenberge bezwingen

Haben klassische Business-Intelligence-Lösungen (BI) ausgedient? Man könnte es fast meinen, denn alle Welt spricht nur noch von Big Data.

Bergsteiger, iStockphoto.com/gregepperson

Hört man sich nach den aktuellen Trends der IT-Branche um, spielen neben Cloud Computing und Mobility zunehmend Big Data eine große Rolle. „An diesem Schlagwort führt momentan kein Weg vorbei“, bestätigt Bernd Eisenblätter, Chief Operating Officer (COO) bei der Jedox AG. Dies ist nachvollziehbar: Die Datenmengen wachsen und die Herausforderungen nehmen zu. „Die Rede ist von strukturierten wie unstrukturierten Daten aus RFID-Chips, Maschinen, Callcentern, Social Media und vielem mehr“, so Eisenblätter.

Vor dieser Entwicklung rücken traditionelle BI-Systemen schnell in den Hintergrund. „Klassische BI- und Analyse-Tools reichen nicht mehr aus, um sämtliche Datenquellen und -formate eines Unternehmens umfassend und in Echtzeit auszuwerten“, betont Steffen Weissbarth, Chief Executive Officer der Exasol AG. Vielmehr bedürfe es Big Data Analytics und geeigneter Data-Warehouse-Management-Lösungen als Motor dahinter, um aus Big Data nutzbringende Informationen zu gewinnen. Gleiches bemerkt Rolf-Jürgen Moll, Vorstandsmitglied bei der Lucanet AG: „Die Ansprüche an die Performanz heutiger BI-Lösungen sind in der Tat sehr viel höher als noch vor einigen Jahren.“ Dies liege insbesondere daran, dass es durch günstigen Speicherplatz heute möglich ist, enorme Datenmengen vorzuhalten. „Genau dies tun viele Unternehmen auch“, erklärt Moll, „es wird alles gespeichert, nichts wird gelöscht.“ Demgemäß bestehe die Kunst nun daraus, für Auswertungen und Analysen zunächst die relevanten Daten zu identifizieren und bereits beim Design des Data Warehouse auf Performance-Aspekte zu achten.

Um riesige Datenberge sekundenschnell auszuwerten, bedienen sich die Anbieter der sogenannten In-Memory-Technologie. „Die Technologie dient dazu, große Datenmengen in kurzer Zeit zu verarbeiten. Hierzu halten diese Lösungen Daten nicht auf der Festplatte, sondern im Hauptspeicher des Rechners vor und verarbeiten diese auch dort. Geschwindigkeitsvorteile ergeben sich dann durch den Datenzugriff über den Hauptspeicher“, erläutert Bernd Eisenblätter. Ein Vorteil dieser Technologie: „Mit der In-Memory-Technologie erhalten Anwender ihre Auswertungen sozusagen auf Knopfdruck“, erklärt Dr. Stefan Jensen, Director Presales DACH bei Qliktech. Während man früher Analyseanfragen über die IT-Abteilung abwickelte, verlagere sich die Anwendung von BI-Lösungen nun immer mehr in die Fachabteilungen. „Dies ergibt durchaus Sinn“, meint Jensen, „denn der Anwender soll die Möglichkeit haben, mit wenigen Klicks eigenständig Analysen und Reports erstellen zu können.“

Allerdings mutet der aktuelle Hype um In-Memory etwas verwunderlich an, gibt es diese Technologie doch schon seit Jahrzehnten. So setzt Qliktech seit 1993 auf In-Memory. Jedox nutzt die Technologie seit der Unternehmensgründung im Jahr 2002 und die Exasol AG ist nach eigenen Angaben ebenfalls seit über einem Jahrzehnt damit am Markt unterwegs. „In der Tat ist die Technologie nicht neu, aber seit der Einführung von 64-Bit-Prozessoren ist es möglich, das Potential voll auszuschöpfen“, erklärt Rolf-Jürgen Moll von Lucanet. Mit den älteren 32-Bit-Prozessoren war die Technologie nicht optimal nutzbar, da nur vier-GB-Arbeitsspeicher adressiert werden konnten. Das reicht laut Moll für die großen Datenmengen nicht aus. Mit den 64-Bit-Prozessoren steigt gleichzeitig die Kapazität des Arbeitsspeichers um ein Vielfaches, sodass auch riesige Datenmengen verarbeitet werden können.

Doch warum schlägt das Thema gerade jetzt so hohe Wellen? „Dies liegt u.a. daran, dass große Anbieter wie SAP oder IBM das Thema für sich entdecken“, glaubt Bernd Eisenblätter, der allerdings nichts wirklich Bahnbrechendes an den aktuellen Lösungsangeboten entdecken kann. Den aktuellen Hype erklärt sich Jan Meister, Projektmanager bei dem IT-Dienstleister DV-Ratio, vor allem durch die verstärkten Marketingaktivitäten seitens der Softwarehersteller. „Wir raten unseren Kunden daher, vor einem Einsatz von In-Memory-Computing nicht nur die Lizenzmodelle der Software-Anbieter, sondern auch die Folgekosten für Hardware-Erweiterungen und zusätzlichen Administrationsaufwand genau zu analysieren.“ Zudem sei Arbeitsspeicher in den letzten Jahren sehr viel billiger geworden, so dass dort das Vorhalten größerer Datenmengen kein Hindernis mehr darstelle, ergänzt Dr. Ilias Michalarias, Product Manager bei Cubeware in Rosenheim. Doch nicht nur die Speicherpreise sind gefallen, auch die CPUs an sich sind schneller geworden. „Deshalb sind In-Memory-Lösungen für die Verarbeitung von Massendaten ganz einfach attraktiver als umfangreiche Investitionen in große Server“, bemerkt Anastasios Christodoulou, Geschäftsführer von Novem.

Ein großer Vorteil von In-Memory-Technologien ist die bereits beschriebene mögliche Performance-Steigerung. „Gegenüber relationalen Datenbanksystemen ist der Geschwindigkeitsvorteil von In-Memory-Olap-Systemen enorm“, bestätigt Christodoulou. „Je nach Verwendungszweck erreichen wir Steigerungen um den Faktor 10 bis 100.“ Eine noch höhere Bestmarke setzt der Anbieter Exasol. Nach Aussage von CEO Steffen Weissbarth erlaubt die eigene Lösung den Anwendern, sehr große Datenbestände von bis zu 100 Terabyte ad hoc auszuwerten.
Solch deutliche Performance-Steigerungen müssen jedoch immer auf den konkreten Anwendungsfall bezogen werden. Denn um wie viel schneller Analysen mit In-Memory laufen, hängt von verschiedenen Faktoren ab. „Zum einen ist es ein Unterschied, ob wir über Big Data oder Small Data sprechen. Ein weiterer Einflussfaktor ist die Anzahl der User, die das System gleichzeitig nutzen“, betont Rolf-Jürgen Moll. Und letztlich ist es wie immer eine Budgetfrage: Laut dem Lucanet-Vorstand gibt es unterschiedliche Lösungen im Bereich In-Memory – von der reinen Technologie, die die Nutzer mit ihren ganz normalen PCs nutzen können über Zwischenlösungen, bei denen ein Teil der Hardware ersetzt wird, bis hin zu den ganz großen Lösungen, bei denen Software und speziell entwickelte Hardware kombiniert werden. Entscheide man sich für letztere, müsse man schnell mit Investitionen im oberen sechsstelligen Bereich rechnen.

Befragt nach den Kosten berichtet Jan Meister von DV-Ratio: „Grundsätzlich ermöglicht die In-Memory-Technologie deutlich kürzere Antwortzeiten, da anstatt langsamer Festplatten der viel schnellere Hauptspeicher als Speichermedium benutzt wird.“ Letzterer sei allerdings deutlich teurer und oft nicht beliebig erweiterbar. Deshalb sollte man laut Meister unbedingt die Alternativen betrachten. Doch Obacht: In-Memory-Technologien liefern keinen Freifahrtschein für sekundenschnelle Analysen und können durch verschiedene Faktoren ausgebremst werden. „In vielen Projekten wird In-Memory als ‚einziger‘ kritischer Erfolgsfaktor für eine Optimierung der Gesamtperformanz aus unserer Sicht überschätzt“, wirft Meister ein. Er rät Anwendern dazu, einer abnehmenden Performanz bei ihren Datenanalysen nicht bzw. nicht ausschließlich mit dem Einsatz neuer Technologien wie „In-Memory“ entgegenzuwirken. Vielmehr sollte die Modellierung der BI-Lösung im Fokus stehen und es sei wichtig, eine auf das Unternehmen optimal „angepasste“ Technologie-Infrastruktur zu gestalten.

Generell scheint In-Memory-Computing aber in den Unternehmen angekommen zu sein, wie zahlreiche aktuelle Praxisbeispiele beweisen. So berichtet Bernd Eisenblätter von Jedox über ein Projekt bei Nonstop Consulting aus München. Das Unternehmen unterstützt Webshopbetreiber dabei, ihre Verkaufsbreite über geeignete Webseitenbetreiber zu erweitern. Die entscheidende Frage: Wie erfolgreich sind Werbe- und Verkaufsmaßnahmen im Netz? „Die Frage gewinnt an Komplexität, wenn die Daten zur Erfolgsmessung aus verschiedenen sogenannten Affiliate-Netzwerken zusammengetragen werden müssen, und zwar tagesaktuell“, berichtet Eisenblätter. Mithilfe von Jedox-Lösungen habe Nonstop Consulting den administrativen Aufwand der Datenaufbereitung drastisch verringert. Waren die Mitarbeiter bisher vor allem mit dem Beschaffen und Aufbereiten der Affiliate-Netzwerkdaten beschäftigt, verfügen sie nun über ein schnelles, flexibles Berichts- und Analysesystem.

Auf eine Kundenreferenz angesprochen nennt Stefan Jensen einen prominenten Kunden: Die BMW Group nutzt Qlikview für Analysen und Reporting in der Antriebsentwicklung. Die Software wird für die Materialsteuerung eingesetzt, um sicherzustellen, dass jederzeit alle benötigten Teile für den Bau der Motoren vorhanden sind. Zudem werden damit die dokumentierten Versuchsaufbauten- und Testergebnisse ausgewertet. „Auf diese Weise können die Versuchsingenieure über eine „Fehlermatrix“ Entwicklungsprobleme der betrachteten Antriebskomponenten und -teilsysteme sekundenschnell recherchieren“, berichtet Jensen. Problemfälle an Bauteilen und Antriebskomponenten können über die Fehlerkategorie oder ein Fehlerstichwort einfach gefunden werden. „Unsere Software zeigt zudem individuelle Teile-Informationen wie Laufzeiten, Lösemomente und Messdaten an“, so Jensen. Die Verbräuche von Prüfstand- und Fahrzeugversuchen ließen sich ebenfalls schnell und einfach analysieren und vergleichen. Weitere Applikationen im Bereich Qualitätsmanagement sowie Tüv-Datenanalysen werden darüber abgebildet. Ein weiteres Anwenderbeispiel präsentiert Anastasios Christodoulou: „Bei Feinkost Käfer aus München haben wir ein System für die integrierte Finanzplanung eingeführt. Dabei werden alle relevanten Finanzdaten aus sämtlichen Quellsystemen zentral gesammelt und mithilfe von IBM Cognos TM1 verarbeitet. Die In-Memory-Lösung sorgt dafür, dass Planung, Reporting und Liquiditätsanalysen schnell und auf Knopfdruck möglich sind.“ Außerdem führen Controller bei Käfer regelmäßig Szenarioanalysen, rollierende Forecasts und Simulationen durch, und zwar unternehmensweit, über alle Konzerngesellschaften hinweg und mit sämtlichen Finanzdaten – In-Memory macht dies möglich.

 

Definition In-Memory
Eine In-Memory-Analyse liefert schnelle und aussagekräftige Ergebnisse. Da die Daten in den Arbeitsspeicher gezogen und nicht mehr von der Festplatte geladen werden, sind die Analysevorgänge extrem schnell und die Daten können innerhalb von Bruchteilen einer Sekunde manipuliert und visualisiert werden. Die In-Memory-Technologie ermöglicht die Analyse von live operativen Daten, d.h. Daten veralten nicht in Folge eines Batch-Datenintegrationsprozesses. Der In-Memory-Ansatz wird oft in Verbindung mit Visualisierung gebracht, weil er den Benutzern ermöglicht, mit den Daten zu interagieren und Trends zu visualisieren.

Quelle: Andreas Labinski, Senior Sales Engineer EMEA bei Jaspersoft

Bildquelle: iStockphoto.com/gregepperson

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok