Intelligente Analyse von Maschinen- und Sensordaten

Big-Data-Lösungen für die Produktion

Interview mit Thomas Martens, Vice President Product Marketing bei der Cubeware GmbH, über den Nutzen von Big-Data-Lösungen in Produktionsumgebungen

Thomas Martens, Cubeware GmbH

Thomas Martens, Vice President Product Marketing bei der Cubeware GmbH

IT-DIRECTOR: Herr Martens, in welchen Bereichen kann Big-Data-Analysesoftware im Produktionsumfeld von Großunternehmen sinnvoll eingesetzt werden?
T. Martens:
Zu den wichtigen Einsatzgebieten von Big Data in der Produktion sowie den angeschlossenen Bereichen Service und Support zählen mit Sicherheit die Produktionsoptimierung mittels Maschinen- und Sensordaten, die generelle Produktionsplanung, im Speziellen bei Saisonartikeln oder anderen Artikeln, die schnellen Lebenszyklen unterworfen sind, in Abhängigkeit von Markt- und Wirtschaftsdaten und die Früherkennung von Produktions- und Produktproblemen durch den Einsatz von Diagnosedaten. Von tiefergehenden Einblicken durch Analysesoftware profitieren aber nicht nur Großunternehmen. Auch mittelständische Firmen können sich durch auf ihren Anwendungsfall zugeschnittene Analysen Vorteile versprechen.

IT-DIRECTOR: Welche Daten spielen in der Produktion generell eine besonders wichtige Rolle, welche können eher vernachlässigt werden?
T. Martens:
In der Produktion spielen natürlich Maschinen- und Sensordaten eine essentielle Rolle. Durch das Erfassen von Daten entlang der gesamten Produktions- und Lieferkette können die dahinterstehenden Prozesse transparent gemacht werden und Optimierungspotentiale aufgedeckt werden. Je nach Augenmerk kann dies sowohl in nahezu Echtzeit erfolgen, aber auch Szenarien, in denen die Auswertung erst zu einem später definierten Zeitpunkt erfolgt, haben durchaus ihre Daseinsberechtigung. Welche Daten vernachlässigt werden können, ist eine Einzelfallentscheidung. Je nach Erkenntnisinteresse sind hier andere Setups vorstellbar. Um die Entstehung von Datensilos zu vermeiden, ist es jedoch empfehlenswert, von Anfang an Maschinen- und Sensordaten mit Finanzkennzahlen und Marktdaten zu verzahnen. Nur so lassen sich Analysen erstellen, die operativen wie auch strategischen Nutzen haben.

IT-DIRECTOR: Können Sie uns bitte ein konkretes Beispiel für den Big-Data-Einsatz im Produktionsumfeld von Großunternehmen beschreiben?
T. Martens:
Bei Unternehmen, die in der Förderung von Rohstoffen aktiv sind, hat das Sammeln und das Auswerten von Maschinen- und Sensordaten bereits eine lange Tradition. Daten von der aktuellen Bohrung lassen sich mit den Daten von seismischen Sensoren und denen von Telemetriemessungen verknüpfen. Dies vermeidet nicht nur Produktionsfehler, sondern hilft auch die Betriebs- und Wartungskosten zu senken. Gerade auch im Hinblick auf die umstrittene Methode zur Rohölförderung „Fracking“ bieten sich bei Probebohrungen begleitende Analyseverfahren an, die Bohrungsdaten mit Grenz- und Schwellwerten von Richtlinien in Echtzeit abgleichen.

Auch in der Qualitätssicherung steigt die Bedeutung von Analysen. Je geringer die Fertigungstiefe, aufgrund von Zulieferketten und Outsourcing, desto wichtiger ist es, Daten aus mehreren Systemen zu konsolidieren und zeitnahe auszuwerten, um Qualitätsstandards lückenlos nachvollziehen zu können. Dabei kommt es zu einem Datenkonvolut aus CAD-Systemen, dem Engineering, der Fertigung und dem Product Lifecycle Management. Durch die verstärkte RFID-Nutzung nimmt diese Datenmenge weiter zu.

IT-DIRECTOR: Auf welche Art und Weise könnten Big-Data-Plattformen fehlende Transparenz im Produktionsgeschehen wettmachen?
T. Martens:
Die Verwendung von Analyseverfahren, die polystrukturierte Daten berücksichtigen, hilft Datensilos aufzubrechen. Die Verknüpfung von RFID-, Maschinen- und Sensordaten mit Finanz- und Marktkennzahlen auf einer einheitlichen Plattform bricht die „Blackbox“ Produktion auf. Es gibt nicht länger eine interne und eine externe Perspektive auf den Produktionsprozess, sondern beide Sichtweisen verbinden sich zu einem Gesamten. Daten zur Instandhaltung von Maschinen lassen sich beispielsweise mit KPIs zur Amortisierung oder zur Abschreibung in Beziehung setzen oder mit den TCO. Dadurch können Rentabilitätsgesichtspunkte besser eingeschätzt und Fehlinvestitionen verhindert werden.

IT-DIRECTOR: Inwieweit würden sich die Aufgaben der Produktionsmitarbeiter durch den Einsatz von Big-Data-Technologien verändern?
T. Martens:
Produktionsmitarbeiter müssen sich keine Sorgen machen, dass sie mit einer völlig neuen Stellenbeschreibung konfrontiert wären. Das eigentliche Tätigkeitsfeld würde unberührt bleiben. Was sich jedoch signifikant verändern würde, ist die Perspektive auf den Produktionsprozess. Statt lediglich reaktiv zu arbeiten, würden vielmehr auch vorbeugende und in die Zukunft gerichtete Maßnahmen den Arbeitsalltag bestimmen. Ähnlich wie heute schon in Kfz-Werkstätten üblich, würden Analyse-Ergebnisse den Startpunkt markieren. Statt singulär auf Einzelsysteme zuzugreifen, rückt das Analysesystem dauerhaft in den Mittelpunkt. Dies markiert den wesentlichen Schritt hin zur sogenannten „Data Driven Company“.

IT-DIRECTOR: Welche Hürden sehen Sie für eine flächendeckende Nutzung von Big-Data-Lösungen in der Produktion?
T. Martens:
Letztlich unterscheiden sich die Herausforderungen von Big-Data-Lösungen in der Produktion nicht von denen in anderen Branchen und Geschäftsbereichen. Jedes Analysesystem ist nur so gut, wie die Daten mit denen es gefüttert wird. Die Transparenz und Qualität im Datenbestand, den Datenquellen und der Datenvielfalt ist entscheidend. Die Punkte Datenmanagement und -modellierung sind hier als größte Hürden zu benennen. Neben diesen technischen Herausforderungen sind dann noch die Aspekte Data Governance und die Analysekompetenz an sich anzuführen. Schließlich sollte den Verantwortlichen bewusst sein, dass mit der Fähigkeit komplexer Auswertungen von Daten in Echtzeit die Gesamtbetriebskosten von Analysesystemen steigen werden.

Runtergebrochen stellen sich also folgende Fragen:
•    Was ist die konkrete Zielsetzung?
•    Welche Daten werden dafür benötigt?
•    Wer übernimmt die Konzeption und Betreuung des Analysesystems?
•    Welche Verantwortlichkeiten und Compliance-Richtlinien gilt es zu definieren?
•    Welche Prozesse müssen eingeführt und überprüft werden?

Generell gilt es festzuhalten, dass es im Bereich Advanced Analytics und Big Data nicht die eine Lösung gibt. Je komplexer das Erkenntnisinteresse, desto stärker muss bei der Umsetzung individualisiert werden. Analysesysteme müssen also im Stande sein, sich in bestehende Umgebungen zu integrieren, über technische und fachliche Anforderungen zu skalieren und unterschiedliche Nutzertypen adäquat anzusprechen – vom Informationskonsumenten bis hin zum Data Scientist.

IT-DIRECTOR: Wie lassen sich sämtliche Datenquellen (Maschinen, Prozesse, Produkte) und Systeme (ERP, SCM, BI) am besten integrieren? Auf welche Standards sollten die IT-Verantwortlichen hier vor allem achten?
T. Martens:
Sieht man von dem vieldiskutierten Speicherkonzept des „Data Lake“ ab, werden wir es mit mehreren Analyse- wie Speicher-Layer in einer hybriden Struktur zu tun haben. Denn nur so lassen sich die Stärken und Schwächen der einzelnen Ansätze nutzen beziehungsweise ausgleichen. Nach wie vor haben transaktionale und analytische Systeme ihre Daseinsberechtigung, wenn es um strukturierte Daten, die Konzentration auf hochwertige Daten, der Identifikation wiederholbarer Operationen und Prozesse sowie definierter Anforderungen geht. Diese Systeme müssen jedoch um Hadoop-Distributionen oder NoSQL-Datenbanken ergänzt werden, wenn das Augenmerk auf der Integration unterschiedlicher Datenarten und -typen, den Umgang mit variablen Inhalten und Einzelfall-Analysen sowie explorativer Analysen aufgrund fehlender oder wechselnder Anforderungen liegt. Durch den Einsatz von In-Memory-Speicherkonzepten können die beiden Welten bei Bedarf oder für spezielle Anwendungsszenarien zusammengebracht werden.

Die Frage nach Standards ist nicht leicht zu beantworten. Es ist davon auszugehen, dass verschiedene Technologien zur Speicherung von Daten zum Einsatz kommen. Neben den klassischen relationalen Datenbanken werden in Zukunft verstärkt NoSQL-Datenbanken und unstrukturierte Dateiformate den Analysepool erweitern. Es scheint, dass SQL als Abfragesprache für die verschiedenen Datenpools eine Renaissance erlebt, wie beispielsweise das Apache-Projekt „Drill“ zeigt. Darüber hinaus bietet JSON als Format für den Austausch von Daten zwischen Systemen und Applikationen eine hohe Flexibilität. Vor diesem Hintergrund sollten IT-Verantwortliche wenigstens auf diese beiden Standards achten.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok