Einsatzfelder von Big-Data-Analysen

Fast grenzenlose Datenanalysen

Die Einsatzfelder von Big-Data-Analysen sind vielfältig und der Phantasie scheinen keine Grenzen gesetzt zu sein. Allerdings erst dann, wenn vorhandene Datenwüsten beseitigt und Compliance sowie Datenschutz stets im Blick behalten werden.

Wüste, Bildquelle: iStockphoto.com/PatrickPoendl

Angesichts der sich weltweiten digitalen Revolution und der Tatsache, dass Unternehmen immer größere und komplexere Datenmengen aus den verschiedensten Quellen erfassen – aus sozialen Netzwerken ebenso wie aus digitalen Verhaltensmustern, Trends und Online-Konversationen –, steigt die Datenflut exponentiell. Von daher gilt es laut Sean Jackson, Marketing Director EMEA bei Actian, diese Datenberger nicht nur zu speichern, sondern diese auch intelligent zu analysieren und gegebenenfalls weiterzuverarbeiten.

Desweiteren unterstreicht Dr. Mark Darbyshire, CTO EMEA bei Tibco Software, den Echtzeitaspekt und beschreibt denkbare Einsatzgebiete: So nutzen zum Beispiel TK-Anbieter Big-Data-Analysen für ein Echtzeitmonitoring des mobilen Kommunikationsverhaltens, um Dienste, Bandbreiten oder internationale Tarifangebote dann anzubieten, wenn Kunden sie auch benötigen. Handelsunternehmen gestalten Onlinehilfe und -services pass- und zeitgenau anhand des individuellen Such- und Bestellverhaltens eines Kunden. Und nicht zuletzt können Energieversorger die Bereitstellung von Energie anhand von Echtzeit-Verbrauchsanalysen optimal ausbalancieren.

Ein gutes Beispiel für die Leistungsfähigkeit von Analytics-Lösungen findet sich bei der Fraport AG. Der Flughafen Frankfurt ist mit rund einer halben Million Flugzeugbewegungen, über 50 Millionen Passagieren und mehr als zwei Millionen Tonnen Fracht pro Jahr eines der größten internationalen Drehkreuze der Luftfahrt. Um den Flughafenbetrieb effizient zu steuern ist die Bewältigung enormer Datenmengen erforderlich. „So müssen die Verantwortlichen kontinuierlich darüber informiert sein, ob es aktuell Verspätungen gibt und wie sich verhindern lässt, dass diese alle weiteren Abläufe durcheinander bringen. Oder auch wie sich das Wetter auf den Betrieb auswirkt, und in welchen Bereichen des Flughafenbetriebs es eventuell gerade Schwierigkeiten gibt", berichtet Gerhard Altmann, Director Services & Technology bei SAS Deutschland. Dabei müssen die Verantwortlichen stets die Möglichkeit haben, in den Betrieb einzugreifen und bei Bedarf umzudisponieren. „Die wichtigsten Anforderungen an unsere bei Fraport eingesetzte Analytics-Lösung lagen darin, dass sie durch keine Datenmenge an ihre Grenzen gerät und Auswertungen in Echtzeit liefert. Die Informationen und Reportings sind oft nach wenigen Sekunden, höchstens aber nach einigen Minuten auf dem neuesten Stand. Zudem bietet die Lösung Visualisierungsmöglichkeiten, mit der die Ergebnisse anschaulich und Zusammenhänge damit klarer werden", so Altmann weiter.

Ein weiteres Beispiel aus der Praxis beschreibt Ben Connors, Worldwide Head of Alliances bei Jaspersoft: „Einer unserer Kunden, der eine weltweite B2C-Webseite betreibt und auch in Deutschland tätig ist, nutzt sowohl ein Relational Database Management System (RDBMS) als auch Hadoop. Die Plattform für lokale Preisvorteile, auf der Internetnutzer Gutscheine für Aktivitäten in ihrer Stadt bis zu 80 Prozent günstiger kaufen, setzt dabei unsere Lösung ein, um Big-Data-Analysen und -Berichte durchzuführen.“ Dabei werden in Dutzenden von Datenquellen Terabytes an Daten vorgehalten und mit der Software täglich über 350 Berichte für verschiedenste Abteilungen wie Marketing, Finanzen oder Geschäftsführung generiert und sowohl in grafischer als auch tabellarischer Form bereitgestellt. „Dadurch erreicht das Unternehmen sein Ziel, nahezu Echtzeitreporting für seine Mitarbeiter weltweit zur Verfügung zu stellen“, so Connors. Ein Ergebnis lautet dabei: Das Unternehmen hat glückliche Kunden, denn durch die schnelle Gewinnung von Geschäftseinblicken kann es sein Online-Angebot dynamisch optimieren, den Umsatz steigern und die Ausgaben senken.

Günstige Hardware, teure Prozesse

Soviel zu den möglichen Einsatzfeldern. Kritiker mokieren jedoch, dass mit der Etablierung von Big-Data-Lösungen teure Investitionen in neue Hardware einhergehen. Ein Argument, dass Sean Jackson nachvollziehen kann. „Es gibt Lösungen auf dem Markt, die hohe Performance bieten, ohne zunächst in große Server- bzw. Speicherlandschaften zu investieren. Um im Nachhinein die Leistung nach oben zu skalieren bedarf es dann jedoch weiterer Server – frei nach dem Motto: Viel bringt viel", betont Jackson. Demgegenüber gibt es Technologien, die sich die Leistungsfähigkeit moderner CPUs zunutze machen. Sie beinhalten eine Datenbank-Engine, die gegenüber herkömmlichen Datenbanken durch ihre vektorbasierte Verarbeitung und On-Chip-Memory-Funktion signifikante Leistungssteigerungen für Abfragen und Analysen in Echtzeit erzielen kann. „Von daher ist es ein Trugschluss zu denken, dass schnelle Performance für große Datenmengen immer eine Reihe von neuen Servern und eine große Investition erfordern", so Jackson.

Auch Mark Darbyshire von Tibco glaubt kaum, dass Hardware-Performance der springende Punkt sei. Denn zum einen existiere bereits kostengünstige Standardware, zum anderen würden aus der Cloud bezogene Lösungen zusätzlich die Kosten senken. „Wesentliche Investitionen betreffen vielmehr die Veränderung, wie mit existierenden Daten umgegangen und dies in die Kerngeschäfte eines Unternehmens eingebunden wird", betont Darbyshire und erläutert weiter: „Die meisten Unternehmen sind zu einer Zeit gewachsen, in der kaum Bewusstsein für die Bedeutung von Daten bestand. Daher sind die Verantwortlichkeiten für Datenerfassung, -speicherung und -extraktion getrennt von denen der Datennutzung.“ Diese strukturelle Trennung müsse reorganisiert werden, um Analyselösungen über ein Unternehmen hinweg implementieren zu können. Hierzu bedarf es einer Organisationsstruktur, die beide Welten vereint: die Leistungsfähigkeit von Daten und die Prioritäten der Geschäftsstrategie.

Mit der Ansicht, dass der organisatorische Aufwand bei der Etablierung von Big-Data-Analysen überwiegt, steht Mark Darbyshire nicht alleine da. Auch für Steffen Joswig, Geschäftsführer der Camelot ITLab GmbH, machen die IT-Kosten interessanterweise nur ein Teil der Investitionen aus. Dies gelte insbesondere für Szenarien, in denen die Qualität der Rohdaten nicht gesichert ist. „Hier fallen verstärkt Personal- und Projektkosten an, wobei sich Big-Data-Szenarien mit geringerer Komplexität je nach Ausgangslage bereits in sechs bis zwölf Monaten realisieren lassen“, so Joswig weiter.

Ben Connors von Jaspersoft berichtet von einem schnellen, kostengünstigen Projekt: „Bei Big-Data-Analysen müssen Verantwortliche nicht gleich mit großen Ausgaben rechnen. Die meisten bekannten Plattformen bauen – wie unsere Lösung auch – auf ein kommerzielles Open-Source-Modell auf. Das bedeutet Nutzer starten mit kostenfreien Lösungen, in der Regel auf Standardhardware und wachsen inkrementell.“ Vor diesem Hintergrund greifen die Nutzer auf bereits vorhandene Analysekenntnisse zurück, die sie durch den Umgang mit bekannten Lösungen erworben haben. „So können sie neue Systeme schnell einrichten. Wir haben beispielsweise einen Kunden, der seine Berichte auf ein Hadoop-System in nur drei Stunden zum Laufen gebracht hat“, berichtet Connors.

Generell gilt: Fängt man mit Big-Data-Analysen an verlangt dies wie sooft eine sorgfältige Planung. „Man sollte am besten klein anfangen und dann weiter wachsen, parallel dazu sollten auch die Nutzer geschult werden“, so Ben Connors und verweist dazu passend auf das kostenfreie Trainingsprogramm für die Durchführung von Big-Data-Analysen unter www.bigdatauniversity.com. Diese Webseite setzt auf einer gemeinsamen Initiative von IBM, Amazon, Jaspersoft und anderen auf und soll Big-Data-Schulungen der breiten Masse zugänglich machen.

BI-Systeme sind überfordert

Darüber hinaus zögern insbesondere Unternehmen, die erst kürzlich neue Business-Intelligence-Software eingeführt haben, davor unmittelbare Investitionen nachzulegen. „Herkömmliche BI-Lösungen eignen sich jedoch nur für die Analyse von eher kleineren Datenmengen, die Datenanfragen sukzessive abarbeiten und die grafische Darstellung der Ergebnisse erst im Nachhinein aufbereitet“, erklärt Sean Jackson von Actian. Business-Analytics-Lösungen hingegen geben über weit mehr Details und Prozesse Auskunft als es mit BI-Lösungen möglich wäre. „Sie decken Zusammenhänge auf und beleuchten Trends, weshalb sie als Werkzeug für eine zukunftsorientierte Unternehmenssteuerung dienen“, erklärt Gerhard Altmann von SAS Deutschland. Spezielle Lösungen wie die Social Media Analytics des Anbieters seien so für die Analyse unstrukturierter Daten wie E-Mails oder Kommentare aus sozialen Medien einsetzbar. Damit ließen sich zum Beispiel Stimmungen, Trends und Einstellungen erkennen, etwa zu Unternehmen, Produkten oder Dienstleistungen. „Gerade wenn es um die Analyse unstrukturierter Daten geht sind traditionelle BI-Systeme definitiv überfordert“, meint Altmann.

Bereits eingesetzte BI-Systeme verlieren jedoch nicht zwangsläufig ihre Existenzberechtigung wie Steffen Joswig betont: „Die aktuellen Entwicklungen hinsichtlich der Hardware und der In-Memory-Datenbanken bieten Kunden in Zukunft die Möglichkeit, bestehende BI-Lösungen auch für Big-Data-Szenarien zu nutzen.“ Die gelte insbesondere für SAP-basierte BI-Systeme, die von ihren herkömmlichen Datenbanken auf die Hana-In-Memory-Datenbank migriert werden könnten.

Ein weiteres durchaus lohnendes Vorgehen beschreibt Sean Jackson: „Bereits getätigte BI-Investitionen können für Big Data weiter beansprucht werden, indem man die analytische Datenbankschicht unter der BI-Applikation einfach ändert. Das heißt, man kann dieselbe BI-Applikation (z.B. Tableau Software, Microstrategy, Yellowfin) verwenden, wenn man sie mit einer schnelleren analytischen Datenbank kombiniert.“ Wichtig sei dabei, dass eine bereits installierte Datenbank wie Oracle oder SQL Server nicht deinstalliert werden muss. Sie könne vielmehr nach wie vor für transaktionale Aufgaben verwendet werden. Geht es im nächsten Schritt um analytische Aufgaben, könne man parallel dazu eine analytische Datenbank verwenden und die zu analysierenden Daten aus der transaktionalen Datenbank einspeisen – auf dieser Art und Weise behielten getätigte Investition durchaus ihre Berechtigung.

Datenschutz nicht aus den Augen verlieren

Neben den Investitionen und dem Aufwands einer Implementierung von Big-Data-Lösungen müssen die Verantwortlichen die Einhaltung von Compliance und Datenschutz fest im Blick behalten. „Die Analyse von Big Data bringt eine große Verantwortung mit sich“, bringt es Sean Jackson auf den Punkt. Doch an dieser Verantwortung tragen viele schwer und immer wieder gibt es Negativschlagzeilen über Unternehmen, die es mit der Privatsphäre ihrer Kunden nicht allzu genau nehmen.

Dabei verletzt man die Gesetze laut Sean Jackson nur dann, wenn persönliche Daten analysiert und diese wiederum veröffentlicht werden. Viele Unternehmen verwalten bzw. analysieren Daten daher anonymisiert, um gewisse Trends aufzudecken und Verhaltensmuster einer bestimmten Masse und nicht eines Individuums zu erkennen. „Allerdings ergeben sich Compliance-Verletzungen oftmals durch eine nicht ausreichende Anonymisierung der Daten bzw. der Verknüpfung unterschiedlicher Datenquellen“, berichtet Steffen Joswig. Und manche Unternehmen machten sich bewusst zu Nutze, dass hinsichtlich des Datenschutzes keine weltweit einheitlichen Richtlinien vorliegen, wodurch viele Grauzonen und Schlupflöcher entstehen.

Hinsichtlich dieses Sachverhalts bemerkt Ben Connors von Jaspersoft, dass es kaum einen Unterschied zwischen der Analyse von „Small Data“ und riesigen Datenberge gebe. Egal womit gearbeitet werde, Systemdesigner, Anwender und Verbraucher müssen vorsichtig sein und entsprechende Regeln und Gesetze beachten. „Big Data bietet einfach mehr Macht und mehr Möglichkeiten für die Datennutzung. Diese Macht kann natürlich von denjenigen, die eine schlechte Absicht verfolgen, missbraucht werden, allerdings kann diese dafür genutzt werden, Krankheiten zu heilen oder Gesetzesbrecher zu erfassen. Wie bei so vielen Technologien ist Datenschutz auch bei Big Data ein zweischneidiges Schwert“, fasst Ben Connors zusammen.

 

Worauf es bei der Basis für Big-Data-Analysen ankommt:

  • Wie viele Daten sollen analysiert werden?
  • Was sind das für Daten (strukturierte, unstrukturierte, Grafiken, Video usw.)?
  • Wie viele Mitarbeiter müssen auf die Daten und auch die Analysen gleichzeitig zugreifen können?
  • Was ist das geschäftliche Ziel einer Big-Data-Lösung? Worauf will man mit der Lösung hinaus?

Quelle: Sean Jackson, Actian Corporation

 

Bildquelle: iStockphoto.com/PatrickPoendl

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok