Interview mit Ben Connors, Jaspersoft

Kostengünstige Big-Data-Technologien

Interview mit Ben Connors, Worldwide Head of Alliances bei Jaspersoft, darüber, wie Big-Data-Technologien auch mit kostengünstiger Hardware, preiswerten Analysetools sowie geringem Beratungsaufwand funktionieren können

 Ben Connors, Jaspersoft

Ben Connors, Worldwide Head of Alliances bei Jaspersoft

IT-DIRECTOR: Herr Connors, mit welchen Investitionen müssen Großunternehmen rechnen, wenn Sie ein Big-Data-Projekt in Angriff nehmen wollen?
B. Connors:
Die gute Antwort ist, dass Big-Data-Projekte nicht zwangsläufig hohe Investitionen in Hardware, Datenbank, Analysetools, Beratung, Schulung etc. mit sich bringen müssen.

  • Hardware: Fast alle der führenden Big-Data-Technologien sind darauf ausgerichtet, auch auf kostengünstiger Hardware zu laufen. „Don’t Scale Up, Scale Out“ ist das neue Motto. Das heißt, man rüstet besser sein bestehendes System auf, indem man zahlreiche kostengünstige Komponenten hinzufügt, anstatt sich eine teure, zentralisierte Hardware anzuschaffen. Darüber hinaus können diese Systeme in die Cloud verlagert werden, dadurch braucht man erst gar nicht in Hardware zu investieren.
  • Datenbanken: Fast alle führenden Big-Data-Datenbanken sind Open-Source-fähig, d.h. quellcodeoffen. Sogar die kommerziellen Betreiber sind typischerweise nicht so teuer wie die Unternehmensdatenbanken. Auch hier sind die Datenbanken in der Cloud verfügbar, d.h. man kann sie stundenweise mieten.
  • Analysetools: Ebenso wie Datenbanken sind auch Analysetools wie die von Jaspersoft auf Open Source Basis erhältlich. Darüber hinaus kann man die Jaspersoft Analysetools in der Cloud mieten ab 0,35 Euro die Stunde.
  • Beratung/Schulung: Die Kosten in diesem Bereich sind stark davon abhängig, was der Kunde erfordert. Consultingunternehmen erkennen das Wachstum in diesem Bereich. Es gibt also deutlich mehr qualifizierte Berater, was langfristig dazu führen sollte, das die Kosten hier sinken werden. Außerdem gibt es zahlreiche kostenlose Trainings online, um Mitarbeiter besser zu schulen (siehe www.bigdatauniversity.com).


IT-DIRECTOR: Welche Kosten machen Ihrer Ansicht nach dabei den größten Batzen aus, und warum?
B. Connors:
Die höchsten Kosten entstehen, wenn man Big Data gar nicht nutzt, während die Konkurrenz sich Marktvorteile verschafft – dadurch gehen einem nämlich Umsätze verloren. Nichtsdestotrotz ist die Arbeitskraft, die für ein Big-Data-Projekt nötig ist, der höchste Kostenfaktor, also sprich in interne oder externe Mitarbeiter zu investieren, die mit der Durchführung des Big-Data-Projekts vertraut sind. Durch den großen Unterschied zwischen den niedrigen Kosten für Hard- und Software sowie den hohen Kosten für die Arbeitskraft wird die Schieflage noch offensichtlicher.

IT-DIRECTOR: Bitte nennen Sie uns eine Größenordnung für die Kosten der aufgezählten Komponenten.
B. Connors:
Bei dieser Skala handelt es sich um eine persönliche Einschätzung, basierend auf meiner Erfahrung.

Traditionelle Data-Warehouse-Projekte:
„Kleine“ Projekte
Hardware: 50.000 Euro
Software: 100.000 Euro
Arbeitskraft: 300.000 Euro

„Große“ Projekte
Hardware: 300.000 Euro
Software: 600.000 Euro
Arbeitskraft: 1,8 Mio Euro

Big-Data-Projekte:
„Kleine“ Projekte
Hardware: 25.000 Euro
Software: 25.000 Euro
Arbeitskraft: 150.000 Euro

„Große“ Projekte
Hardware: 100.000 Euro
Software: 100.000 Euro
Arbeitskraft: 600.000 Euro

IT-DIRECTOR: Welche Anschaffungen sind für reibungslose Big-Data-Analysen Pflicht? Auf welche könnte man eher verzichten bzw. an welcher Stelle könnte man vorhandene (Alt-)Systeme nutzen?
B. Connors:
Die signifikanten Unterschiede zwischen Big-Data-Analyse-Systemen und traditionellen Data-Warehouse-Systemen sind:

Software: Das Data-Management-System ist unterschiedlich. Die Analysetools können bereits existierende Tools und Fertigkeiten ersetzen, so wie Jaspersoft, das sowohl für traditionelle Data Warehouses läuft als auch für neue Big-Data-Quellen. Hardware: Big-Data-Systeme laufen typischerweise auf Clustern von Warensystemen oder in der Cloud. Wenn es nötig ist, kann man die alten Systeme schon nutzen, obwohl sie teuer sind und proprietär. Am meisten sollte man in seine Mitarbeiter investieren, um eine reibungslose Big-Data-Analyse zu garantieren.

IT-DIRECTOR: In der Praxis treffen wir aktuell immer wieder auf Anwender, die bereits in Big-Data-Lösungen investiert haben. Allerdings wissen viele davon nicht, was sie mit den Analysetools anfangen sollen. Was geben Sie diesen Anwendern mit auf den Weg?
B. Connors:
Experimentieren! Die Verantwortlichen bzw. die Anwender sollten zu Konferenzen, Meetups und ähnlichen Veranstaltungen gehen, um Ideen zu teilen und aus Best-Practice-Beispielen von Kollegen zu lernen. Ich glaube, dass externe Datenquellen (Daten von Regierungen, kommerzielle Daten, Daten aus Social Media etc.) sehr wertvolle Informationen enthalten. Wenn sie mit internen Daten kombiniert werden, können sie Big-Data-Systeme noch wertvoller machen.

IT-DIRECTOR: Welche Algorithmen erweisen sich im Rahmen von Big-Data-Analysen dabei als besonders sinnvoll?
B. Connors:
Das hängt sehr stark von dem Anwenderbeispiel ab. Wollen wir das Verhalten von Terroristen voraussagen? Kreditkartenbetrug? Online Advertising? Die Algorithmen hierfür sind so unterschiedlich wie die zunehmenden Anwenderbeispiele für Big Data.

IT-DIRECTOR: Können Sie uns ein kurzes Beispiel für die erfolgreiche Anwendung von Big-Data-Analysen beschreiben?
B. Connors:
Ein Beispiel dafür ist der britische Spiele-Entwickler Jagex. Jaspersoft wird bei Jagex als interne BI-Plattform für Standardberichte genutzt, mit der auch Key Performance Indicators (KPIs) erfasst werden, beispielsweise die Anzahl der zahlenden Kunden, die Zahl der sich anmeldenden Kunden etc. Daneben werden weitere industriespezifische Daten für den Gamebereich analysiert, z.B.: wo stehen Spieler in der Gamewelt, welche Waffen nutzen sie und welche Kreaturen töten sie. Anhand solcher Informationen sind die Spieledesigner von Jagex in der Lage, besser auf Anfragen von Kunden zu reagieren, zum Beispiel indem sie verschiedene Arten von Filtern oder Input-Kontrollen hinzufügen können.  

IT-DIRECTOR: Big-Data-Analysen können auf strukturierten wie unstrukturierten Daten basieren. Insbesondere letztere werden gerne zur Auswertung des Kundenverhaltens herangezogen. Wie kann man dafür sorgen, dass solche Auswertungen weder Compliance-Vorgaben noch die Privatsphäre von Kunden verletzen?
B. Connors:
Das wird ein fortlaufender Prozess sein. Die Anonymisierung gesammelter Daten ist wichtig, um die Privatsphäre zu schützen. Auf der anderen Seite sind persönliche Informationen eine neue Art von Währung geworden. Wir handeln oft mit unseren Identifikationsinformationen und Verhaltensmustern im Austausch gegen Güter, Services und Informationen. Solange wir als Kunden darüber informiert werden und diese Entscheidung bewusst treffen können, kann jeder davon profitieren.

IT-DIRECTOR: Wer in den Unternehmen sollte überhaupt mit solchen Daten Analysen durchführen dürfen? Worauf gilt es, bei der Vergabe von Nutzerrechten sowie generell beim Nutzermanagement, besonders zu achten?
B. Connors:
Bei der generellen Datensammlung kann der Zugang zu Analysen freier gewährt werden. Wenn es in die Einzelheiten geht, sollten nur solche Personen Zugang haben, die die Informationen wirklich brauchen. Bei der Vergabe von Nutzerrechten sollten die Daten bis zu dem höchst möglichen Grad maskiert werden (Data Masking), damit die Administration auch möglich ist, ohne einen tieferen Einblick in die Daten zu bekommen. Es gibt eine große Anzahl an verfügbaren Technologien, mit denen man dies erreichen kann; diese sollten mehr zum Einsatz kommen (z.B. www.ocio.gov.nl.ca/OCIO/pmo/8-PlatoPMOSessionDataMasking.pdf )

IT-DIRECTOR: Was denken Sie: Mit welchen Big-Data-Analysen überschreiten Unternehmen bereits heute bzw. könnten sie in Zukunft schnell ethische und gesetzliche Grenzen überschreiten?
B. Connors:
Big-Data-Analysen überschreiten ethische und gesetzliche Grenzen, wenn sie:
1.    Konsumenten Risiken und Peinlichkeiten aussetzen.
2.    Konsumenten keine Möglichkeit bieten, aufdringlichem Verhalten zu entgehen.

Wie auch immer, ist dies ein sehr heikles Thema und kann nicht mit ein paar Statements abgehandelt werden. Gesetze und juristische Beschlüsse müssen von den entsprechenden Autoritäten neu überdacht werden, um dieses Thema richtig anzupacken. Beispielsweise sollte man sich die Frage stellen: Wann (wenn überhaupt) sind Regierungen berechtigt Big Data zu analysieren, um kriminelle Handlungen gegen Kinder aufzudecken oder terroristische Attacken vorauszusagen? Das sind Beispiele, die in Zukunft noch heftig diskutiert werden!

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok