Auf Basis von Open Source

Offene Big-Data-Architekturen

Im Interview erläutert Harald Weimer, Geschäftsführer von Talend Deutschland, warum Big-Data-Analysen am Besten mit Open-Source-Software funktionieren und was bei der Konzeption und Umsetzung solcher Analysen bedacht werden sollte.

Harald Weimer, Talend Deutschland

Harald Weimer, Geschäftsführer von Talend Deutschland

Je mehr Unternehmen ihre digitalen Geschäfte ausweiten, um so schneller und gezielter müssen sie ihren Kunden und Interessenten mit passgenauen Daten und Services aufwarten. Ohne den Einsatz von Big-Data-Technologien, mittels denen der Gesamtdatenbestand des Unternehmens analysiert und ausgewertet werden kann, danach die Auswertungsdaten in maßgeschneiderten Services abgebildet und via Portal den Nutzern bereitgestellt werden können, ist das Unternehmen mittelfristig nicht mehr wettbewerbsfähig. IT-DIRECTOR fragte bei Harald Weimer nach, worauf es bei der Konzeption, Umsetzung und Produktwahl für eine leistungsfähige Big-Data-Integrations- und -Analyselösung ankommt.

IT-DIRECTOR: Herr Weimer, welche Weichenstellungen sollten Unternehmen für die Nutzung von Big-Data-Analysen treffen?
H. Weimer:
Die Herausforderung liegt darin, die hohe Komplexität des Projekts zu meistern, welches zwischen Geschäftsstrategie und IT-Ausrichtung angesiedelt ist. Sie müssen sich sowohl inhaltlich (Was ändert sich mit Big Data auf Geschäftsebene?) als auch technisch (Welche technischen und IT-betrieblichen Konsequenzen haben diese Veränderungen für das Unternehmen?) intensiv damit beschäftigen.

IT-DIRECTOR: Mit welchen geschäftlichen Themen müssen sich die Projektbeteiligten auseinandersetzen?
H. Weimer:
Sie müssen konzeptionieren, welche Daten zur Verfügung stehen müssen, um den digitalen Geschäftsauftritt offensiv voranzutreiben. Dazu müssen sie die Marktsegmente, die sie bedienen, sowie das Verhalten ihrer Kunden genau kennen, also vorab analysieren und bewerten. Nur unter diesen Voraussetzungen wissen die Projektbeteiligten, welche Datenbestände bereitstehen müssen, um durch ihre Analyse und Auswertung die Informationsanforderungen der Kunden und potentieller Kunden zu bedienen. Im nächsten Schritt müssen die internen Datenquellen – Datenbanken und Anwendungen – identifiziert und gesichtet werden, inwieweit sie die für den digitalen Geschäftsauftritt relevanten Daten vorhalten. Diese Datenquellen gilt es anschließend in eine gesamtheitliche Datenbasis zu überführen. Dafür sollte die Integrationslösung der Wahl als Teil der Big-Data-Architektur bestimmte Voraussetzungen erfüllen.

IT-DIRECTOR: Worauf sollten die Verantwortlichen in diesem Zusammenhang besonders achten?
H. Weimer:
Wesentliche Kriterien für eine angemessene Produktauswahl sind eine auf Open Source Software (OSS) basierende Big-Data-Architektur, eine hohe Anzahl an Integrationskonnektoren und eine entgegenkommende Preisgestaltung des Anbieters, was die Werkzeuge betrifft. Mit einer OSS-basierenden Big-Data-Architektur unterwirft sich das Unternehmen keiner Hersteller- und Preisbindung. Außerdem haben die Projektverantwortlichen die Wahl zwischen unterschiedlichen Programmiersprachen und Werkzeugen, z.B. zur Datenintegration, Datenbereinigung, Markierung, Analyse und Profilierung der Daten, aber auch zur Code-Generierung oder zum Aufsetzen von Continious-Delivery-Funktionen für eine beschleunigte IT-Service-Entwicklung. Eine hohe Anzahl an Konnektoren ist wichtig, damit bei der Zusammenführung der bisher separat geführten Datenquellen keine außen vor bleibt. Leistungsfähige Big-Data-Architekturen auf quelloffener Basis halten mittlerweile über 800 erweiterbare Konnektoren vor. Sie sollten ohne zusätzliche Lizenzgebühren zum Lieferumfang der Big-Data-Architektur gehören.

IT-DIRECTOR: Inwieweit sollte die Big-Data-Architektur bei der Ausgestaltung von IT-Services unterstützen?
H. Weimer:
Sie sollte ein Modul zur Anwendungsintegration bereitstellen, das sich durch einen schnellen Service-Backbone mit einer Vielzahl an ESB-Schnittstellen auszeichnet. Beides wird gebraucht, um eine service-orientierte Architektur zu errichten, über die Services als Informationstransporteure in Echtzeit verbunden, vermittelt und verwaltet werden können. Die Vielzahl an ESB-Schnittstellen ist wichtig, damit alle beteiligten Anwendungen so formiert werden können, dass daraus vollständige Serviceketten entstehen.

IT-DIRECTOR: Inwieweit ist eine quelloffene Big-Data-Architektur wirklich ein Garant für Kosteneinsparungen?
H. Weimer:
Ohne Produkt- und Preisbindung können Unternehmen durch die freie Wahl der Big-Data-Architektur, Werkzeuge und Programmiersprache im Vergleich zu herstellerspezifischen Ansätzen erhebliche Kosten sowohl bei der Anschaffung als auch im Betrieb sparen. Außerdem können Datenkonvertierungszeiten halbiert werden. Summa summarum sind Einsparungen gegenüber CPU-basierenden Kostenmodellen von bis zu 70 Prozent möglich.

IT-DIRECTOR: Wie fällt die kaufmännische Rechnung aus, wenn Unternehmen bereits herstellerspezifische Big-Data-Architekturen einsetzen, aber auf OSS umschwenken wollen?
H. Weimer:
Dann fallen die Kosteneinsparungen anfänglich geringer aus, unabhängig von der Strategie „Side-by-Side“ oder „Ablöseprojekt“. Eventuell entstehen für das Unternehmen je nach Sachlage kurzfristig sogar Mehrkosten. Mit der ersten Strategie wird in einer Übergangsphase alt und neu parallel betrieben, es wird aber nur noch in die neue Big-Data-Lösung investiert. Mit der zweiten Strategie migriert das Unternehmen über einen zu definierenden Zeitraum allmählich vom alten zum neuen System. Dabei können die Projektbeteiligten aufgrund der offenen Ausrichtung der Big-Data-Architektur und der großen Auswahl an Werkzeugen und Programmiersprachen auf einen einfachen graduellen Umstieg von der herstellerbindenden Lösung wie Informatica, IBM Datastage oder anderen ETL-Systemen zählen.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok