In-Memory-Technik

Neue Generation von Analytics-Lösungen

Unternehmen steht eine neue Generation von Analytics-Lösungen zur Verfügung. Die Auswertung vieler ­verschiedener Datenquellen in Echtzeit und voraus­schauende Analysen machen neue Geschäftsmodelle möglich. Treibende Kraft ist die In-Memory-Technik.

Geschwindigkeit, Bildquelle: Thinkstock/iStock

Mehr als nur Geschwindigkeit: Wenn man in Echtzeit prozessieren kann, verändert sich der ganze Prozess, was neue Geschäftsmodelle möglich macht.

Auf jeder Konferenz, in jeder Präsentation eines IT-Anbieters ist Analytics mittlerweile das zentrale Thema. Die technische Entwicklung hat die Leistungsfähigkeit der Datenanalyse deutlich erweitert. Den Unternehmen eröffnet dies nun neue Möglichkeiten. Ihnen steht die nächste Generation an Analytics-Technologien zur Verfügung.

Doch noch ist nicht ganz klar, welches begriffliche Etikett für diese neue Generation am treffendsten ist. Das Marktforschungshaus IDC etwa verwendet den Begriff „Big Data Analytics“. Damit sind neuartige Ansätze und Architekturen für den Umgang mit großen Datenmengen, unterschiedlichen Datenformaten und -quellen, die mit herkömmlichen Methoden und Vor­gehensweisen nur unzulänglich bearbeitet werden können, gemeint. Die Analysten verstehen Big Data Analytics damit als Weiterentwicklung von Business Intelligence (BI) und Methoden der Datenanalyse sowie -bewertung in Unternehmen. Die neuen Technologien zeichnen sich aber durch mehr aus, als dass sich mit ihnen nur große Datenmengen auswerten lassen. Es geht um eine stärkere Automatisierung der Analyseprozesse, die Einbindung von deutlich mehr Datenquellen, die Auswertung in Echtzeit und vorausschauende Analysen. „Big Data fungiert hierbei als ein zentrales Element bzw. als eine Klammer der aktuellen Entwicklungen“, heißt es in einem IDC-Report zu dem Thema.

Die technische Basis der entsprechenden Lösungen stellen In-Memory-Datenbanken dar. Sie sorgen für extrem hohe Geschwindigkeit bei der Auswertung und sind quasi die Geburtshelfer für die neue Analytics-Generation. Die momentan meiste Aufmerksamkeit genießt dabei die Hana-Appliance von SAP. Aber auch andere Anbieter wie etwa die Software AG oder SAP-Konkurrent Oracle haben In-Memory-Technik im Portfolio. Welche Geschwindigkeitsschübe In-Memory ermöglicht, verdeutlicht Wolfram Jost, Technikchef der Software AG. Als ein Beispiel nennt er ein renommiertes Kreditkartenunternehmen, das im Vier-Sekunden-Takt jede Transaktion auf eine betrügerische Handlung prüft. Vorher war dies nur alle 45 Minuten möglich. Ein australisches TK-Unternehmen kann laut Jost innerhalb von 30 Millisekunden – und damit tausend Mal schneller als vorher – seinen Kunden die kompletten Rechnungsdaten zur Verfügung stellen. Beide arbeiten mit der In-Memory-Lösung Terracotta des Darmstädter Anbieters.

Vergleichbare Zahlen kann auch die SAP für Hana vorlegen. Mit diesem Tempo werden Echtzeitanalysen möglich, für die es in den Unternehmen einen großen Bedarf gibt. „Firmen fehlt es oft an Transparenz“, sagt Jürgen Krämer, Vice President für den Bereich Analytics bei der Software AG. Daten würden gesammelt, dann ins Warehouse geschrieben und mit einem Zeitverzug ausgewertet. So hat man die Umsatzzahlen für das vergangene Quartal parat, aber was gerade im operativen Geschäft abläuft, weiß man nicht“, so Krämer. Mit den neuen Technologien gibt es diese Verzögerung nicht mehr. „Wir können die Daten sofort analysieren – wenn sie anfallen“, erklärt Krämer. Das sei heutzutage auch nötig, um wettbewerbsfähig zu bleiben. Die Anwender in den Fachabteilungen forderten seit Jahren eine höhere Schnelligkeit von der IT, sagen die IDC-Experten. Mit der rasanten Verbesserung von Rechenleistung, Verarbeitungsgeschwindigkeit und Automatisierung könnten diese Ansprüche nun ein Stück weit besser umgesetzt werden, als dies noch vor einigen Jahren der Fall war.

„Geschwindigkeit ist aber nicht alles“, meint Rolf Schuman, der bei SAP der Leiter der Plattformlösungen für die Region Mittel- und Osteuropa ist. „Wenn man in Echtzeit prozessieren kann, verändert sich der ganze Prozess“, so Schumann, „das macht ganz neue Geschäftsmodelle möglich.“ Er nennt ein Beispiel aus dem Einzelhandel: „Dort haben wir die Kunden- mit den Kassendaten verbunden – mithilfe der Hana-Plattform. Das waren vorher getrennte Welten.“ Wenn nun ein Kunde an der Kasse steht, hat man sofort Informationen über ihn zur Verfügung und kann ihn zielgerichtet ansprechen. „Man sieht z. B., dass der Kunde jede Woche Schokolade kauft, aber heute nicht“, erläutert Schumann. „Dann könnte man ihm ein spezielles Sonderangebot machen, das sich auf Schokolade bezieht. Das meine ich, wenn ich von neuen Geschäftsmodellen spreche.“

Das Beispiel zeigt auch einen weiteren Aspekt der neuen Analytics-Technologien. Sie speisen sich aus vielen verschiedenen Datenquellen. Es geht nicht mehr nur allein um historische Daten wie beim klassischen Business Intelligence. „Unsere Plattform dockt sich an verschiedenste Systeme an“, sagt Krämer, „an ERP, CRM oder M2M-Umgebungen.“ Die Software AG arbeitet dabei auch mit Analytics-Modulen, die Datenströme auswerten – z. B. Positionsmeldungen von Personen und Fahrzeugen. Daten und Informationen seien schließlich die wertvollsten Rohstoffe, von denen jeder Unternehmensbereich abhängt, meint CTO Jost. Zu diesen Strömen zählen auch die Inhalte, die in Blogs oder sozialen Netzwerken veröffentlicht werden. Diese Informationen können ebenfalls in eine moderne Analytics-Lösung miteinbezogen werden und mit anderen Daten verknüpft werden.

Nach Meinung von Oliver Oursin gibt es Szenarien, in denen sich der Nutzen einer solchen Verknüpfung zeigt. Oursin ist bei IBM weltweit verantwortlich für die Predictive- und Business-Intelligence-Lösungen. Sein Beispiel: Ein Unternehmen stellt vor dem geplanten Launch ein neues Produkt auf den Social-Media-Seiten vor und analysiert die Reaktionen. Diese Informationen werden u.a. mit Textmining analysiert und segmentiert. Verknüpft z. B. mit Finanzdaten lässt sich dann laut Oursin aus diesen Informationen erkennen, welche Auswirkungen das Produkt auf den geschäftlichen Erfolg haben könnte. „Man braucht aber eine ganze Reihe verschiedener Analyse-Aktivitäten, um ein relevantes Ergebnis zu bekommen, welches auch operativ einen größeren Erfolg bringt“, so Oursin.

Während Social-Media-Seiten Informationen von Menschen liefern, wird es künftig unter dem Schlagwort Industrie 4.0 mehr Daten von Maschinen geben, deren Auswertung sich lohnt. Auch diese Informationen können in eine Analytics-Plattform eingebunden werden. SAP z. B. hat eine Lösung für Predictive Maintenance entwickelt – also eine vorausschauende Wartung von Maschinen. Dafür sammelt die Hana-Plattform die Daten, die von den Sensoren der Maschinen, die z. B. in Fabrikhallen stehen. Aufgrund der Analyse bestimmter vorab definierter Werte kann die Lösung laut Schumann vorhersagen, wann eine Maschine einen Defekt haben wird. Um in solchen Fällen schnell reagieren zu können, haben die IT-Anbieter nicht nur verschiedene Analytics-Technologien auf einer Plattform zusammengebracht. Integriert sind auch Applikationen, um die passenden Aktionen anzustoßen – wie im Fall von SAPs Predictive Maintenance etwa ein Modul für das Asset Management.

Doch trotz dieser vielen Möglichkeiten, die moderne Plattformen bieten, bleibt Big Data laut IDC für viele Unternehmen eine Herausforderung. Diese bestehe in der Auswahl der geeigneten Prozesse, der Auswahl der passenden Lösungen und deren Positionierung gegenüber vorhandenen Analysetools. Zudem fehle es an Fachkräften, die Datenquellen und analytische Prozesse in ihrer Komplexität überschauen und in Lösungen strukturieren können.

Viele Unternehmen müssen aber zunächst mal die Grundlage für die Datenanalyse schaffen. „Das Datenmanagement ist in vielen Unternehmen eine Dauerbaustelle“, sagt IDC-Analyst Matthias Zacher. „Sie sollten daran arbeiten, das Fundament in Ordnung zu bringen, um über eine saubere Basis für Analysen und Entscheidungsunterstützung zu verfügen.“ Grundsätzlich sind er und seine Kollegen der Meinung, dass wachsende Datenmengen und -vielfalt evolutionäre Ansätze bei Analytics erfordern. Unternehmen müssen strategisch und stringent vorgehen – nur dann kann ein umfassender Geschäftsnutzen aus den Daten gezogen werden.

 

Big Data Analytics als große Chance

95 Prozent der Experten in den Unternehmen sehen das Potential von Big Data und Analytics für die Geschäftsentwicklung. Aber weniger als ein Drittel kann diesen Nutzen tatsächlich beziffern. Das ist eines der Ergebnisse einer Studie des Analystenhauses IDC unter dem Titel „The CIO’s Chance of a Lifetime: Using Big Data and Analytics as the Ticket to Strategic Relevance“. Die Untersuchung wurde vom Softwarehersteller SAS unterstützt und basiert auf einer Befragung von 587 IT-Managern, Fachbereichsverantwortlichen und Analytics-Experten.

Für die IT ist Big Data Analytics eine große Chance, aber auch ein Risiko. Denn in den Augen der Fachabteilungen ist die IT nicht selten eher ein Bremsklotz als eine Unterstützung bei der Nutzung von Analytics für Geschäftsprozesse. Das verleitet die Fachbereiche unter anderem dazu, die DV-Abteilung zu umgehen oder eine eigene Schatten-IT aufzubauen. Insgesamt stellt die Studie fest, dass die IT weniger an der Analytics-Strategie beteiligt ist, als sie selbst glaubt. Zudem sind die Fachbereiche mit der Unterstützung durch die IT weniger zufrieden als umgekehrt. Grundsätzlich kommt die Untersuchung aber zu dem Ergebnis, dass Big Data Analytics für CIOs und IT-Verantwortliche eine Chance bietet, ihren Beitrag zu den strategischen Unternehmenszielen signifikant zu steigern.

Im Internet: www.idc.de

Soziale „Kaffesatzleserei“

Unternehmen nutzen Technologien für Social Analytics, um Meinungen und Stimmungen der Kunden zu erfassen. Anbieter wie IBM, Salesforce, Microsoft oder Adobe haben dafür Systeme entwickelt. Diese analysieren die Inhalte, die User auf Social-Media-Seiten veröffentlichen. Social Analytics eignet sich für Unternehmen in Massenmärkten: Automobilhersteller und TK-Unternehmen durchforsten bereits das Social Web.

Wie viel Aufschluss eine Analyse tatsächlich bringt, ist umstritten. Für Gartner-Analyst Alexander Linden ist Social Analytics „Kaffesatzleserei“. Sprachliche Äußerungen seien komplex und daher gebe es eine Unsicherheit bei den Ergebnissen, die sich aus einer automatischen Analyse der Social-Media-Inhalte ablesen lassen. „Auf diese Weise lässt sich nur ein grobes Sentiment herausarbeiten“, meint Linden. Den direkten ROI einer Lösung konkret zu benennen, ist kaum möglich. In jedem Fall müssen die gewonnenen Informationen nachbearbeitet und in einen Gesamtzusammenhang gebracht werden.

Im Internet: www.gartner.com

Bildquelle: Thinkstock/iStock

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok