Nachgefragt bei Ben Connors, Jaspersoft

Täglich 350 Berichte mit Big-Data-Lösung

Interview mit Ben Connors, Worldwide Head of Alliances bei Jaspersoft über die Anforderungen von Big-Data-Analysen.

Ben Connors, Jaspersoft

Ben Connors, Worldwide Head of Alliances bei Jaspersoft

IT-DIRECTOR: Wofür benötigt man spezielle Big-Data-Lösungen und wie sehen diese aus?
B. Connors:
Unsere Kunden haben oft Datensätze, die ein enormes Volumen aufweisen, ganz unterschiedliche Formate besitzen und schnell verarbeitet werden müssen (Volume, Velocity, Variety – die drei Vs von Big Data). Um aus diesen Daten aussagekräftige Einblicke zu gewinnen, nutzen sie unsere Big-Data-Lösungen.

Die Lösungen umfassen eine serverbasierte BI-Plattform zusammen mit einer Big-Data-Quelle (Hadoop, NoSQL, NewSQL etc.), die häufig gemeinsam mit traditionellen relationalen Datenquellen verwendet werden. Diese werden für eine breite Palette von Anwendungsfällen genutzt wie Webanalyse, Marketing-/Vertriebsanalysen, Sicherheitssysteme, Umwelt-Monitoring/Planung, Gesundheitswesen, Sensoren und anderen Anwendungen.

IT-DIRECTOR: Warum kann man hierfür nicht „herkömmliche“ Business Intelligence-Lösungen nutzen bzw. erweitern? Wie lassen sich bereits getätigte BI-Investitionen auch für Big Data-Analysen verwenden?
B. Connors:
BI-Lösungen lassen sich schon erweitern. Es muss lediglich sichergestellt sein, dass sie für Big-Data-Analysen (BDA) skalierbar sind. Denn Big Data erfordert Lösungen, die auf unterschiedliche Weise skalierbar sind; BI-Lösungen müssen dementsprechend skaliert sein. Unsere Lösung ist beispielsweise so entwickelt worden, dass sie skaliert:
•    über verschiedene Datenquellen (traditionelle RDBMS, Hadoop, NoSQL, NewSQL etc.)
•    unabhängig von der Einsatzstrategie (On Premise oder in der Cloud)
•    über zahlreiche Anwendungsfälle hinweg – einschließlich Batch-Analysen, Operational Reporting und Echtzeitdatenexploration
•    über verschiedene Geräte (z.B. Desktop, mobile, eingebettet etc.)
•    über eine große Anzahl von Nutzern (bei denen die technische Leistungsfähigkeit, das Training und der Kostenfaktor wichtig sind).

IT-DIRECTOR: Mit welchem Projektaufwand ist für ein Unternehmen die Einführung von Big Data-Analysen verbunden?
B. Connors:
Bei Big-Data-Analysen müssen Unternehmen nicht gleich mit großen Ausgaben rechnen. Die meisten der bekannten Big-Data-Plattformen bauen – wie unsere Lösung auch – auf ein kommerzielles Open-Source-Modell auf. Das bedeutet Nutzer starten mit kostenfreien Lösungen, in der Regel auf Standardhardware und wachsen inkrementell (siehe Diskussionen: www.forbes.com und cloudcomputing.sys-con.com).

Die Nutzer greifen auf bereits vorhandene Analysekenntnisse zurück, die sie durch den Umgang mit bekannten Lösungen haben, und diese für ihre neuen Big-Data-Lösungen nutzen. So können sie die neue Lösung schnell einrichten. Wir haben beispielsweise einen Kunden, der seine Berichte auf ein Hadoop-System in nur drei Stunden zum Laufen gebracht hat.

Wenn man mit Big-Data-Analysen anfängt, ist es wie bei jedem Projekt: Es verlangt eine sorgfältige Planung. Man sollte am besten den Ansatz verfolgen, klein anzufangen und dann immer größer zu werden, parallel dazu sollten auch die Nutzer geschult werden. Ein ausgezeichnetes Trainingsprogramm für die Durchführung von Big-Data-Analysen stellen die kostenlosen Onlinekurse unter www.BigDataUniversity.com dar. Diese Webseite ist eine gemeinsame Initiative von IBM, Amazon, Jaspersoft und anderen. Diese Initiative soll Schulungen von Big-Data-Analysen der breiten Masse kostenlos zugänglich machen.

IT-DIRECTOR: Wie ist es um die für effektive Big-Data-Analysen erforderliche Infrastruktur bzw. Performance bestellt? Inwieweit muss man Bandbreiten erhöhen und (teure) neue Server/Speicher anschaffen?
B. Connors:
Big Data stellt oft große Anforderungen an die Rechen-, Speicher- und Bandbreitenressourcen. Allerdings können die Kosten für die Bandbreite und die Systemlatenzzeiten minimiert werden, indem Big-Data-Analysen nahe der Daten positioniert werden – unabhängig davon ob die Daten nun on Premise oder in der Cloud vorliegen. Es ist daher wichtig ein BI-System auszuwählen, das bei der Bereitstellung flexibel ist.

Darüber hinaus stellt ein System zur Big-Data-Analyse mit intelligenten Push-Down-Abfragen sicher, dass die Abfragen nah an der Datenquelle verarbeitet werden und die Ergebnismengen die Bandbreite äußerst effizient nutzen. Die gängigsten Big-Data-Quellen laufen auf Standardhardware oder in der Cloud und reduzieren (bzw. eliminieren gar) anfängliche Investitionen für teure Server, Speicher und Bandbreiten.

IT-DIRECTOR: Wann können die Auswertungen von großen, unstrukturierten Datenmengen wie z.B. Kassendaten oder sozialen Netzwerken zu einer Verletzung von Compliance-Vorgaben und Gesetzen (z.B. Datenschutz) führen?
B. Connors:
Bei jeder Lösung ist es wichtig, sich mit den Themen Datenschutz und Schutz der Privatsphäre zu beschäftigen. Bei Big Data ist das nicht anders, sondern sogar noch wichtiger, weil der Umfang der Daten beträchtlich größer ist. Allerdings gelten hier die gleichen Regeln und Gesetze wie für gewöhnliche Daten (Small Data). Es wurde bereits oft darüber berichtet, wie Big Data zur Gefährdung der Privatsphäre missbraucht werden könnte. Allerdings ist auch „Small Data“ anfällig dafür – sei es durch Unachtsamkeit oder willentlicher Missbrauch, wie ein Beispiel zeigt. Big-Data-Analysen sind ein weiteres Beispiel dafür, dass die Technologie und Regulierung auseinander laufen, wenn diese nicht angemessen genutzt werden, was jedoch nicht nur bei Big-Data-Analysen der Fall ist.

Medizin- und Genetik-Technologien bieten noch mehr Beispiele dafür, wie schwierig das Abwägen zwischen Technologiefortschritt und Datenschutz sein kann.

Zusammengefasst bedeutet das, ob nun mit Big Data oder „Small Data“ gearbeitet wird Systemdesigner, Anwender und Verbraucher müssen vorsichtig sein und entsprechende Regeln und Gesetze beachten. Big Data bietet einfach mehr Macht und mehr Möglichkeiten für die Datennutzung. Diese Macht kann natürlich von denjenigen, die eine schlechte Absicht verfolgen, missbraucht werden, allerdings kann diese auch beispielsweise dazu genutzt werden, Krankheiten zu heilen oder Gesetzesbrecher zu erfassen. Wie bei so vielen Technologien ist es bei Big Data also auch ein zweischneidiges Schwert.

IT-DIRECTOR: Haben Sie bereits ein Big-Data-Projekt bei einem deutschsprachigen Großkunden umgesetzt?
B. Connors:
Ja, ein Kunde von uns, der eine der weltweit größten B2C-Webseiten betreibt und auch in Deutschland tätig ist, nutzt sowohl RDBMS als auch Hadoop. Die Plattform für lokale Preisvorteile, auf der Internetnutzer Gutscheine für Aktivitäten in ihrer Stadt bis zu 80 Prozent günstiger kaufen, setzt dabei unsere Lösung ein, um Big-Data-Analysen und -Berichte durchzuführen. Dabei werden in Dutzenden von Datenquellen Terabytes an Daten vorgehalten und mit unserer Software täglich über 350 Berichte für die verschiedensten Abteilungen wie Marketing, Finanzen, Geschäftsführung etc. generiert.

Die Berichte werden sowohl in grafischer als auch tabellarischer Form bereitgestellt. Dadurch erreicht das Unternehmen sein Ziel, nahezu Echtzeitreporting für seine Mitarbeiter auf der ganzen Welt zur Verfügung zu stellen. Das Ergebnis ist: Das Unternehmen kann durch die schnelle Gewinnung von Geschäftseinblicken sein Online-Angebot dynamisch optimieren, den Umsatz steigern und die Ausgaben senken.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok