Hadoop im Industrie-Umfeld

Big-Data-Technologien in der Praxis

Im Interview beleuchtet Michael Kienle, Geschäftsführer der IT-Novum GmbH, Big-Data-Technologien wie Hadoop im Praxiseinsatz in der Industrie

Michael Kienle, IT-Novum GmbH

Michael Kienle, Geschäftsführer der IT-Novum GmbH

IT-DIRECTOR: Herr Kienle, in welchen Bereichen kann Big-Data-Analysesoftware im Produktionsumfeld von Großunternehmen sinnvoll eingesetzt werden?
M. Kienle:
Vor allem bei der Optimierung von Produktionsprozessen durch die Nutzung von Sensor- und Maschinendaten sowie bei einer umfassenderen Analyse von Kundenwünsche zur besseren Vorhersage von Produktionsbedarfen – beispielsweise indem man Social-Media-Daten auswertet oder weitgehende Informationen entlang der Supply Chain integriert. Auch das Produktdesign lässt sich optimieren, weil sich Kundenbedürfnisse besser ermitteln lassen. Im Qualitätsmanagement lassen sich Verbesserungen durch tiefere Analysen der Produktion erreichen.

IT-DIRECTOR: Welche Daten spielen in der Produktion generell eine besonders wichtige Rolle, welche können eher vernachlässigt werden?
M. Kienle:
Maschinen- und Sensordaten spielen eine herausgehobene Rolle, besonders in Kombination mit den Daten aus den Bestandssystemen.

IT-DIRECTOR: Können Sie uns bitte ein Beispiel für den Big-Data-Einsatz beschreiben?
M. Kienle:
Der Pharmahersteller Merck nutzt Hadoop für die schnellere Entwicklung von Impfstoffen. Durch den Schema-on-Read-Ansatz von Hadoop kann das Unternehmen riesige Datenmengen aus 16 Datenquellen sofort für Analysen bereitstellen, ohne sie vorher über ETL-Prozesse in ein relationales Datenbankschema übertragen zu müssen. Die Zeit- und Ressourceneinsparungen bei der Impfstoffentwicklung sind dabei erheblich.

IT-DIRECTOR: Auf welche Art und Weise könnten Big-Data-Plattformen fehlende Transparenz im Produktionsgeschehen wettmachen?
M. Kienle:
Zum einen können Daten entlang der Produktionsprozesse bzw. der Supply Chain schnell eingesammelt und ausgewertet werden. Das hilft, um einen Überblick über Produktion und Logistik zu bekommen, bessere Vorhersagen zu treffen und eventuell Probleme schneller erkennen zu können. Zum anderen können Daten ausgewertet werden, die bislang aus wirtschaftlichen Gründen (Kosten für Speicher etc.) keinen Beachtung fanden. Produktionsabläufe werden dadurch transparenter und nachvollziehbarer.

IT-DIRECTOR: Inwieweit würden sich die Aufgaben der Produktionsmitarbeiter durch den Einsatz von Big-Data-Technologien verändern?
M. Kienle:
Informationen stehen schneller und umfänglicher zur Verfügung, sodass besser reagiert werden kann.

IT-DIRECTOR: Welche Hürden sehen Sie für eine flächendeckende Nutzung von Big-Data-Lösungen in der Produktion?
M. Kienle:
In den operativen Bereichen muss erst eine Akzeptanz der neuen Lösungen hergestellt werden. Ungewohnt kann es sicher erst einmal für Mitarbeiter sein, dass Entscheidungen nicht mehr aus dem Bauch, sondern faktenbasiert getroffen werden. Zudem muss man sich erst einmal über die zu relevanten Datenquellen und messenden Kennzahlen klar werden – was will ich wissen und wie will ich es aufbereiten? Das Top-Management muss bereit sein, in die neuen Technologien zu investieren. Bei der Einführung von Big-Data-Anwendungen geht es in erster Linie nicht um Technologien, sondern um Geschäftsszenarien. Das heißt, das Management muss zuerst die organisatorischen Rahmenbedingungen schaffen, damit die Projekte erfolgreich sein können und Optimierungspotentiale tatsächlich realisiert werden können.

IT-DIRECTOR: Wie lassen sich sämtliche Datenquellen (Maschinen, Prozesse, Produkte) und Systeme (ERP, SCM, BI) am besten integrieren? Auf welche Standards sollten die IT-Verantwortlichen hier vor allem achten?
M. Kienle:
Abhängig von den konkreten Anforderungen gibt es viele Technologien. Mit einer Hadoop-Plattform lassen sich z.B. Daten aus den unterschiedlichsten Quellen integrieren und auch sehr große Datenvolumen performant verarbeiten. Die Ergebnisse dieser Verarbeitung können über entsprechende Schnittstellen auch an bestehende Systeme, wie die Business-Intelligence-Anwendung, zurückgegeben werden. Leistungsstarke ETL-Werkzeuge helfen, moderne Big-Data-Architekturen zu bewirtschaften. Häufig gibt es nicht nur ein Hadoop-Cluster oder eine NoSQL-Datenbank, sondern ein Zusammenspiel unterschiedlicher Technologien. So hat es sich auch bewährt, verdichtete Informationen aus den Big Data Stores in analytischen Datenbanken zu speichern und sie dadurch den Anwendern schnell und einfach verfügbar zu machen. Moderne ETL-Werkzeuge bieten Schnittstellen zu diesen Systemen und ermöglichen den Betrieb solcher Lösungen. Ein großer Vorteil von Big-Data-Technologien ist, dass fast alle von ihnen Open Source sind, sodass sie Standards unterstützen und eine offene Architektur besitzen.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok