Big-Data-Projekte: Interview mit Rüdiger Eberlein, Capgemini

Wie teuer sind Big-Data-Analysen?

Interview mit Rüdiger Eberlein, Chefarchitekt für Business Information Management bei Capgemini, über den Kostenrahmen für Big-Data-Projekte

Rüdiger Eberlein, Capgemini

Rüdiger Eberlein, Chefarchitekt für Business Information Management bei Capgemini

IT-DIRECTOR: Herr Eberlein, mit welchen Investitionen müssen Großunternehmen rechnen, wenn sie ein Big-Data-Projekt in Angriff nehmen wollen?
R. Eberlein:
Grundsätzlich müssen diese Unternehmen ihre Anwendungslandschaft um Big-Data-Analytics-Funktionalitäten erweitern. Wesentliche Komponenten dabei sind Hadoop, eine In-Memory-Datenbank, Tools für Datenexploration und Predictive Analytics. Hinzu kommt das Investment für entsprechende Schulungen. Darüber hinaus müssen neue Rollen für Data Science und Data Exploration etabliert werden.

IT-DIRECTOR: Welche Kosten machen Ihrer Ansicht nach dabei den größten Batzen aus, und warum?
R. Eberlein:
Die Kosten für Datenhaltung sind erheblich, lassen sich aber bei Nutzung von Commodity-Hardware in Grenzen halten. Die Preisspanne für In-Memory-Datenbanken ist sehr breit, sodass sie durchaus zu den teuersten Posten gehören können.

IT-DIRECTOR: Welche Anschaffungen sind für reibungslose Big-Data-Analysen Pflicht? Auf welche könnte man eher verzichten bzw. an welcher Stelle könnte man vorhandene (Alt-)Systeme nutzen?
R. Eberlein:
Ist in den nächsten zwei Jahren mit Datenvolumina größer 10 TB zu rechnen, dann ist Hadoop erforderlich. Darunter würden es gut ausgebaute Data-Warehouse-Plattformen auch tun.

IT-DIRECTOR: In der Praxis treffen wir aktuell immer wieder auf Anwender, die bereits in Big-Data-Lösungen investiert haben. Allerdings wissen viele davon nicht, was sie mit den Analysetools anfangen sollen. Was geben Sie diesen Anwendern mit auf den Weg?
R. Eberlein:
Am Anfang sollte immer ein Geschäftsvorfall erarbeitet werden. Von Social Media Analytics bis Predictive Asset Maintenance gibt es hier für jede Branche zahlreiche Ideen. Mit Data Exploration lässt sich dann abschätzen, ob die verfügbaren internen und externen Daten für den Geschäftsvorfall erfolgversprechend sind.

IT-DIRECTOR: Welche Algorithmen erweisen sich im Rahmen von Big-Data-Analysen dabei als besonders sinnvoll?
R. Eberlein:
Bei Big Data Analytics kommen Verfahren und Algorithmen aus den Bereichen Machine Learning und Data Mining zum Einsatz. Bekannte Vertreter sind unter anderem Clustering und neuronale Netze. An Bedeutung gewinnen Verfahren zur Analyse von Text und Sprache.

IT-DIRECTOR: Können Sie uns ein kurzes Beispiel für die erfolgreiche Anwendung von Big-Data-Analysen beschreiben?
R. Eberlein:
Autohersteller erschließen sich die Meinungsbilder ihrer Kunden in sozialen Medien wie beispielsweise Autofahrer-Foren. Dort bekommen sie ungefiltert Kritik zu ihren Produkten, insbesondere zu den neuesten Modellen. Das hilft einerseits dem Marketing bei der Erhaltung des Images, andererseits dem Qualitätsmanagement bei der frühzeitigen Erkennung von Produktproblemen.

IT-DIRECTOR: Big-Data-Analysen können auf strukturierten wie unstrukturierten Daten basieren. Insbesondere letztere werden gerne zur Auswertung des Kundenverhaltens (z.B. Kassendaten, soziale Medien) herangezogen. Wie kann man dafür sorgen, dass solche Auswertungen weder Compliance-Vorgaben noch die Privatsphäre (vgl. Datenschutz) von Kunden verletzen?
R. Eberlein:
Mit der Analyse anonymisierter Kundendaten ist man sicher im grünen Bereich. Für die Bildung einzelner Kundenprofile hingegen ist die Einwilligung des Kunden erforderlich. Abgesehen von der Gesetzeslage ist es auch wichtig, den Kunden für den Nutzen der Analysen – beispielsweise weniger und dafür passende Werbung – zu begeistern, statt das Gefühl der Überwachung aufkommen zu lassen.

IT-DIRECTOR: Wer in den Unternehmen sollte überhaupt mit solchen Daten Analysen durchführen dürfen? Worauf gilt es, bei der Vergabe von Nutzerrechten sowie generell beim Nutzermanagement, besonders zu achten?
R. Eberlein:
Die Unternehmen müssen sicherstellen, dass die Daten auf dem gesamten Weg der Übertragung, Haltung und Nutzung gesichert werden. Zugriffsrechte dürfen nicht pauschal, sondern wirklich an konkrete Personen vergeben werden. Das Zugriffsrechtemanagement in Hadoop ist heute noch nicht so ausgereift wie bei relationalen Datenbanken. Hier gibt es bei der Konzeption der Lösung einiges zu tun. Einige Hadoop-Distributoren bieten bereits heute die Möglichkeit, Zugriffsrechte sehr feingranular festzulegen sowie Datenzugriffe komplett zu protokollieren. Die lückenlose Nachvollziehbarkeit der Datenzugriffe ist sehr wichtig um Missbrauch vorzubeugen.

IT-DIRECTOR: Was denken Sie: Mit welchen Big-Data-Analysen überschreiten Unternehmen bereits heute bzw. könnten sie in Zukunft schnell ethische und gesetzliche Grenzen überschreiten?
R. Eberlein:
In Deutschland ansässige kommerziell tätige Unternehmen unterliegen sehr viel Transparenz und öffentlichem Druck. Da sollten wir uns eher auf die Chancen von Big Data Analytics konzentrieren als Angst aufzubauen.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok