Nachgefragt bei Sean Jackson, Actian

Getätigte BI-Investitionen weiter nutzen

Interview mit Sean Jackson, Marketing Director EMEA bei Actian Corporation über die Möglichkeiten von Big-Data-Analysen.

Sean Jackson, Actian

Sean Jackson, Marketing Director EMEA bei Actian Corporation

IT-DIRECTOR: Wofür benötigt man spezielle Big-Data-Lösungen und wie sehen diese aus?
S. Jackson:
Angesichts der sich weltweit weiter ausbreitenden digitalen Revolution und der Tatsache, dass Unternehmen immer größere und komplexere Datenmengen aus den verschiedensten Quellen erfassen – aus sozialen Netzwerken ebenso wie aus digitalen Verhaltensmustern, Trends und Online-Konversationen –, steigt die Datenflut exponentiell. Daher gilt es diese Big Data nicht nur zu speichern, entsprechende Big-Data-Lösungen wie performante Datenbanken sollten diese auch analysieren und gegebenenfalls weiterverarbeiten können.

Erkenntnisse aus den aggregierten Daten zu ziehen, auf Eventualitäten vorbereitet zu sein und auf unerwartete Veränderungen reagieren zu können, sind nur einige Anforderungen einer entsprechenden Lösung. Es bringt also nichts, nur Big Data in einem Data Warehouse zu verwalten, sondern mittels Business Intelligence auch um Gewinne zu maximieren und Kosten zu minimieren.

IT-DIRECTOR: Warum kann man hierfür nicht „herkömmliche“ Business-Intelligence-Lösungen nutzen bzw. erweitern? Wie lassen sich bereits getätigte BI-Investitionen auch für Big-Data-Analysen verwenden?
S. Jackson:
Herkömmliche BI-Lösungen eignen sich insbesondere für die Analyse von eher kleineren Datenmengen, die Datenanfragen sukzessive abarbeiten und die grafische Darstellung der Ergebnisse erst im Nachhinein aufbereiten. Viel besser ist es, eine analytische Datenbank bzw. eine BI-Applikation zu verwenden, die alle Daten gleichzeitig und auch in Echtzeit analysieren kann. Hier stoßen viele herkömmliche BI-Lösungen an ihre Grenzen.

Bereits getätigte BI-Investitionen können für Big Data immer noch beansprucht werden, indem man die analytische Datenbankschicht unter der BI-Applikation einfach ändert. Das heißt, man kann dieselbe BI-Applikation (z.B. Tableau Software, Microstrategy, Yellowfin usw.) verwenden, wenn man sie mit einer schnelleren analytischen Datenbank kombiniert.

Wichtig ist zu erwähnen, dass eine bereits installierte Datenbank (z.B. Oracle, SQL Server usw.) nicht deinstalliert werden muss. Diese können nach wie vor für transaktionale Aufgaben verwendet werden. Wenn es aber um analytische Aufgaben geht, kann man eine analytische Datenbank gleichzeitig verwenden und die Daten, die zu analysieren sind, aus der transaktionalen Datenbank in die analytische Datenbank einspeisen – auf dieser Art und Weise sind bereits getätigte Investition in Technologie gewährleistet.

IT-DIRECTOR: Mit welchem Projektaufwand ist für ein Unternehmen die Einführung von Big-Data-Analysen verbunden?
S. Jackson:
Es muss zunächst in eine analytische Technologie und das entsprechende Personal mit Know-how investiert werden, um daraus profitieren zu können. Die Kosten lassen sich jedoch immer im Rahmen halten, wenn eine Lösung eingesetzt wird, die bei ihrer Verwendung keinen großen Aufwand voraussetzt. Also leicht zu bedienende Datenbanken, die blitzschnelle Performance liefern, und zwar nicht nur bei der Analyse von großen Daten, sondern auch bei der Einspeisung der Daten.

Die Einfachheit einer Lösung ist aber nicht zu unterschätzen – für eine Kostentransparenz einer Big-Data-Lösung, spielen verschiedene Faktoren eine wesentliche Rolle: Wie viele Daten sollen analysiert werden? Was sind das für Daten (strukturierte, unstrukturierte, Grafiken, Videos usw.)? Wie viele Mitarbeiter müssen auf die Daten und auch die Analysen gleichzeitig zugreifen können? Was ist das geschäftliche Ziel einer Big-Data-Lösung? Worauf will man mit der Lösung hinaus?

IT-DIRECTOR: Wie ist es um die für effektive Big-Data-Analysen erforderliche Infrastruktur bzw. Performance bestellt? Inwieweit muss man Bandbreiten erhöhen und (teure) neue Server/Speicher anschaffen?
S. Jackson:
Es gibt Lösungen auf dem Markt, die hohe Performance anbieten, ohne zunächst in große Server-/Speicherlandschaften zu investieren. Um im Nachhinein die Leistung nach oben zu skalieren, bedarf es weiterer Server, nach dem Motto: Viel bringt viel.

Auf der anderen Seite gibt es Technologien, die sich die Leistungsfähigkeit moderner gängiger CPUs voll zunutze machen. Sie beinhalten eine Datenbank-Engine, die gegenüber herkömmlichen Datenbanken durch ihre vektorbasierte Verarbeitung und On-Chip-Memory-Funktion signifikante Leistungssteigerungen für Abfragen und Analysen in Echtzeit erzielen kann. Es ist ein Trugschluss zu denken, dass schnelle Performance für große Datenmengen immer eine Reihe von neuen Servern und eine große Investition erfordern.

IT-DIRECTOR: Wann können die Auswertungen von großen, unstrukturierten Datenmengen wie z.B. Kassendaten oder sozialen Netzwerken zu einer Verletzung von Compliance-Vorgaben und Gesetzen (z.B. Datenschutz) führen?
S. Jackson:
Die Analyse von Big Data bringt eine große Verantwortung mit sich und es ist auch kein Geheimnis, dass beispielsweise soziale Netzwerke persönliche Daten speichern. Vorgaben und Gesetze werden aber nur dann verletzt, wenn persönliche Daten analysiert und diese veröffentlicht werden. Viele Unternehmen verwalten und analysieren Daten daher anonymisiert, um gewisse Trends aufzudecken und Verhaltensmuster einer bestimmten Masse und nicht eines Individuums zu erkennen. Es ist ein Privileg, vertraulich mit den persönlichen Daten umzugehen und auch entsprechend den unbefugten Zugriff zu vermeiden.

IT-DIRECTOR: Haben Sie bereits ein Big-Data-Projekt bei einem deutschsprachigen Großkunden umgesetzt? Falls ja, können Sie uns bitte die wichtigsten Projektschritte sowie das erreichte Ziel schildern?
S. Jackson:
Unsere analytische Datenbank Vectorwise ist bereits bei der Timocom GmbH, Datamatics, IT.NRW, der Deutschen Familienversicherung AG und bei Friendscout24 im Einsatz. Nachdem bei allen Unternehmen die Bestandsdaten über die Jahre stark gewachsen sind und auch an Komplexität zugenommen haben, konnte die etablierte bzw. aufliegende Datenbank die gewünschte Performance nicht mehr bereitstellen. Gesucht wurde nach einer stabilen und zukunftssicheren Datenbank, die auch für weiteres Wachstum ausgelegt ist und die mit der bereits vorhandenen IT-Infrastruktur und existierender Hardware harmoniert.

Die Kunden haben sich nach einem einmonatigen Proof of Concept letztlich für unsere Datenbank entschieden, da die Lösung performant genug war, um auch Ad-hoc-Analysen großer Datenmengen problemlos durchführen zu können. Bereits nach kurzer Zeit wurde unter gleichen Bedingungen eine deutliche Leistungssteigerung im Vergleich mit den zuvor eingesetzten, nicht-spaltenorientierten Datenbanken festgestellt. Auch im Bereich TCO konnte eine Kostensenkung erzielt werden.

Aufgrund der Leistungsverbesserungen durch Vectorwise kann der IT-Dienstleister Timocom beispielsweise eventuell auftretende Unregelmäßigkeiten im täglichen Online-Plattformverkehr identifizieren, um im Bedarfsfall schnell zu reagieren. Die Analyse aller Daten ist für Timocom essentiell, um jederzeit einen umfassenden Überblick über auffällige Aktivitäten zu erhalten.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok