11.02.2015 Schluss mit dem Bauchgefühl dank Big-Data-Analysen

Big Data in der Produktion

Von: Ina Schlücker

Mittels Big Data Analysis sollen in der Produktion großer Industrieunternehmen künftig punktgenaue Prognosen möglich sein, sodass immer weniger IT-Entscheidungen aus dem Bauch heraus getroffen werden müssen.

Bauchgefühl

Schluss mit dem Bauchgefühl: Big-Data-Analysen sorgen für genaue Prognosen.

Generell kommen Big-Data-Analysen laut Alexander Horak, Entwicklungsleiter bei der Combit GmbH, überall dort zum Einsatz, wo große Datenmengen anfallen und „gebändigt“ werden müssen. So zeigt eine Studie von IDC aus dem Jahr 2013 verschiedene Unternehmensbereiche auf, auf die Big-Data-Analysesoftware große Auswirkungen haben kann. Die daraus gewonnenen Erkenntnisse wiederum können im Produktionsprozess weitere Vorteile mit sich bringen. „Denn durch die Nutzung von Big-Data-Analysen etwa in Verkauf und Vertrieb wird die Prognosequalität künftiger Absatzzahlen zuverlässiger, sodass die Produktion zielgerichteter arbeiten kann“, erklärt Felix Jordan, Projektmanager beim FIR an der RWTH Aachen. Darüber hinaus scheint es lohnenswert, Big-Data-Lösungen auch im Rahmen der Produktionsprozesse selbst anzuwenden. Hier verweist Jordan auf die damit verbundene gestiegene Informationsdichte und Geschwindigkeit bei der Datenverarbeitung, was wiederum zu höherer Automatisierung führen kann.

Weitere lukrative Einsatzfeld von Big Data beschreibt Thomas Martens, Vice President Product Marketing bei der Cubeware GmbH: „Zu den wichtigsten Einsatzgebieten zählen die Produktionsoptimierung mittels Maschinen- und Sensordaten, die generelle Produktionsplanung sowie die Früherkennung von Problemen durch den Einsatz von Diagnosedaten.“ Grundsätzlich empfiehlt er, beim Big-Data-Einsatz die Entstehung von Datensilos zu vermeiden und deshalb von Anfang an Maschinen- und Sensordaten mit Finanzkennzahlen und Marktdaten zu verzahnen.

Die angesprochene Früherkennung von Störungen in der Produktion ist dabei ein Paradebeispiel für die intelligente Auswertung von Big Data. Denn mithilfe von Big Data Analytics können die Produktions-, Werkstoff-, Maschinen- und Betriebsdaten so veredelt werden, „dass nicht mehr nur Daten, sondern intelligente Informationen zwischen den Systemen ausgetauscht werden. So bekommen an sich aussagelose Daten eine Bedeutung für den aktuellen Status der Produktion – und zwar mit Blick auf die Zukunft, die in den Daten verborgen liegt. Stichwort: Predictive Analytics“, berichtet Christoph Hartmann, Business Expert Manufacturing bei SAS Deutschland. Diese Einschätzung kann Dr. Marcus Dill, CEO bei dem Beratungshaus Mayato, nur unterstreichen. Für ihn ist die vorausschauende Wartung das zurzeit wohl populärste Szenario: „Anhand von Daten aus Sensoren wird erkannt, wenn Bauteile oder Produktionsabschnitte erste Anzeichen von Problemen aufweisen. Daraufhin lässt sich gezielt und rechtzeitig eingreifen. Dementsprechend kann man punktgenau Ersatzteile einbauen oder sonstige Wartungsmaßnahmen ergreifen.“ Aufgrund solch fokussierter Maßnahmen könnte man schnell Kosten im Millionenbereich einsparen, glaubt Dill.

Die Vorteile solcher Analysen liegen auf der Hand: „Wie erwähnt können zum einen Daten entlang der Produktionsprozesse schnell gesammelt und ausgewertet werden“, berichtet Michael Kienle, Geschäftsführer der IT-Novum GmbH. Dies helfe, einen Überblick über Produktion und Logistik zu bekommen, bessere Vorhersagen zu treffen sowie etwaige Probleme schneller erkennen zu können. „Zum anderen können aber auch Daten ausgewertet werden, die bislang aus wirtschaftlichen Gründen keine Beachtung fanden“, so Kienle ­weiter. Nicht zuletzt aufgrunddessen würden sämtliche Produktionsabläufe transparenter.

Die mit dem Einsatz von Big-Data-Analysen einhergehenden Veränderungen innerhalb der Produktionsprozesse gehen auch an den betroffenen Mitarbeitern nicht spurlos vorbei. So muss in den operativen Abteilungen die Akzeptanz der neuen Lösungen erst einmal hergestellt werden. „Für die betroffenen Kollegen wird es zunächst ungewohnt sein, dass Entscheidungen nicht mehr aus dem Bauch heraus, sondern faktenbasiert getroffen werden“, meint Michael Kienle. Auch Christoph Hartmann glaubt, dass sich die Aufgaben der Mitarbeiter durch die Interaktion mit intelligenten Maschinen und die zunehmende Automation in Zukunft wandeln werden. „Diese Veränderungen bergen jedoch auch Chancen, beispielsweise für Flexibilisierung, neue Arbeitszeitregelungen sowie die Interaktion zwischen Mensch und Maschine“, betont Hartmann. Einen ebenfalls positiven Einfluss bemerkt Martin Neuenhahn, Business Consultant Manufacturing & Industrie 4.0 bei der Software AG. Seiner Ansicht nach werden die Mitarbeiter in Zukunft durch die Bereitstellung und Visualisierung der richtigen Informationen zur richtigen Zeit in die Lage versetzt, bessere Entscheidungen zu treffen. „Auch werden notwendige Informationen früher bereitstehen, so dass die Produktionsmitarbeiter mehr Zeit für anstehende Entscheidungen und somit auch weniger Stress haben werden“, glaubt Neuenhahn. In Summe werden die Kollegen durch intelligentes Filtern und Aggregieren von Daten weniger Informationen verarbeiten müssen.

Konkrete Fallbeispiele

In der Praxis stößt man bereits auf das eine oder andere erfolgreich umgesetzte Big-Data-Projekt. So nutzt etwa der Pharmahersteller Merck die Open-Source-Software Hadoop für die schnellere Entwicklung von Impfstoffen. „Dadurch kann das Unternehmen riesige Datenmengen aus 16 Datenquellen sofort für Analysen bereitstellen, ohne sie vorher über ETL-Prozesse in ein relationales Datenbankschema übertragen zu müssen“, erklärt Michael Kienle. Dabei fielen insbesondere dadurch gewonne Zeit- und Ressourceneinsparungen bei der Impfstoffentwicklung erheblich ins Gewicht.

Ben Connors, Worldwide Head of Alliances bei Tibco Jaspersoft, verweist auf einen 2014 veröffentlichten McKinsey-Bericht. Dieser beschreibt, wie ein Hersteller von Biopharmazeutika mehr als 200 Produktionsvariablen im Prozessfluss überwacht, um die Produktqualität und -reinheit sicherzustellen. „Der sehr komplexe Prozess hat zuvor in scheinbar identischen Chargen Schwankungen im Produktionsvolumen von 50 bis 100 Prozent verursacht. Selbstredend hat dieser Umstand zu einigen Herausforderungen in den Bereichen Qualität, Kapazität und Auslastung sowie sogar bei der Einhaltung gesetzlicher Regelungen geführt“, so Connors.

Mittels fortschrittlicher Big-Data-Analysen aus unterschiedlichen Quellen des Produktionsprozesses versuchte das Unternehmen mögliche Trends, Abhängigkeiten und Kausalitäten für diese Schwankungen zu finden. „Die Palette der möglichen Einflussfaktoren war dabei groß, aber das Unternehmen konnte die neun Variablen identifizieren, die den größten Einfluss auf das Produktionsvolumen haben“, berichtet Connors. Durch die entsprechende Anpassung des Verfahrens konnte das Pharmaunternehmen anschließend das Produktionsvolumen um 50 Prozent erhöhen und über fünf Millionen US-Dollar pro Jahr einsparen. Doch Big-Data-Analysen können nicht nur in der Pharmabranche gute Dienste leisten. So verweist Christoph Hartmann auf die Qualitätsdatenanalyse im Bereich „After Market“. Hierbei können Automobilhersteller auf Basis von Werkstattberichten, E-Mails oder Call-Center-Daten frühzeitig erkennen, wenn sich in einer Modellreihe ein flächendeckendes Fehlerbild ankündigt. „In diesem Zusammenhang spielt auch die Analyse von Verbraucherportalen eine wichtige Rolle. Verbraucherdiskussionen etwa auf www.motor-talk.de enthalten für Hersteller wertvolle Informationen, um etwa den Bedarf an Rückrufaktionen früh zu erkennen“, so Hartmann.

In einem weiteren Industriezweig spielen intelligente Datenanalysen bereits seit langem eine gewichtige Rolle, wie Thomas Martens erklärt: „Bei rohstofffördernden Unternehmen hat das Sammeln und Auswerten von Maschinen- und Sensordaten bereits eine lange Tradition.“ Denn bei diesen Verfahren werden die Daten aktueller Bohrungen mit den Daten von seismischen Sensoren und mit denen von Telemetriemessungen verknüpft. Dies soll, so Martens, nicht nur Produktionsfehler vermeiden, sondern auch dabei helfen, die Betriebs- und Wartungskosten zu senken.

Neben diesen Beispielen aus der freien Wirtschaft erweisen sich die hiesigen Hochschulen als äußerst umtriebig. So arbeitet man am FIR an der RWTH Aachen derzeit an dem Projekt „Big Pro“. In dessen Rahmen wird eine Big-Data-Plattform entwickelt, die in der Lage sein soll, die heterogene Datenlandschaft der Anwendungspartner zu verarbeiten und aufzubereiten. „Die aufbereiteten Daten sollen das Störungsmanagement der Produktion unterstützen“, berichtet Projektmanager Felix Jordan. Hierzu werde ein digitales Abbild der Datenkonstellation während einer Produktionsstörung gespeichert. Die Plattform überwacht ab diesem Zeitpunkt die eingehenden Daten. „Sollte das System eine gleiche Datenkonstellation erkennen, warnt es vor der zuvor gespeicherten Störung“, so Jordan weiter.

Von einer flächendeckenden Big-Data-Nutzung in der deutschen Produktionslandschaft kann allerdings noch nicht die Rede sein. Von daher gilt es für die Verantwortlichen, noch die eine oder andere Hürde zu nehmen. Generell muss das Topmanagement eines Unternehmens dazu bereit sein, in die neuen Technologien zu investieren. „Denn bei der Einführung von Big-Data-Anwendungen geht es in erster Linie nicht um Technik, sondern um Geschäftsszenarien. Das heißt, das Management muss zuerst die organisatorischen Rahmenbedingungen schaffen“, betont Michael Kienle.

Im Rahmen dieser Projekt gilt in der Produktion dasselbe wie in anderen Abteilungen: „Jedes Analysesystem ist nur so gut, wie die Daten mit denen es gefüttert wird“, so Thomas Martens. Entscheidend seien daher die Transparenz und Qualität im Datenbestand und den Datenquellen. Demgemäß müssen die Verantwortlichen laut Martens die Punkte Datenmanagement und -modellierung im Griff haben.

Desweiteren scheitern intelligente Analysen oftmals an der großen Vielfalt von Datentypen und Formaten sowie der unzureichenden Qualität einzelner Informationen. „Die Daten aus unterschiedlichen Quellen in synergetische Einsichten zu verwandeln – das ist mit Sicherheit eine große Herausforderung, gleichzeitig aber auch der Bereich, der sich am meisten lohnen wird“, so die Einschätzung von Martin Neuenhahn. Dabei sei der Zugang zu den Daten häufig ein Problem, da es wenige etablierte Standards gab und gibt. „Die Heterogenität der in der Produktion verwendeten Maschinen und deren, im Verhältnis zu Software, langen Lebensdauer verstärken dieses Problem“, ergänzt der Consultant. Um dieses Problem zu lösen, werden seiner Ansicht nach Plattformen benötigt, die mit geringem Aufwand unterschiedliche Datenquellen, Maschinen und Standards integrieren können.

Überdies kommt es darauf an, die Analyse der Produktionsdaten auch intelligent mit weiteren im Unternehmen vorhandenen IT-Systemen zu verknüpfen. „Die Analysesoftware sollte eine große Menge an unterschiedlichen Datenquellen unterstützen. Dabei bieten sich bei der Verwendung von SQL-Datenbanken offene Schnittstellen wie Open Database Connectivity (ODBC) an, mit denen sich die meisten Datenbanksysteme anbinden lassen“, erklärt Alexander Horak von Combit. In diesem Zusammenhang erlauben es Standards wie Odata (Open Data Protocol), verteilte Datenquellen anzubinden.

Ein weiteres Manko führt Marcus Dill ins Feld. Demnach sei die Sensortechnik heutzutage in vielen Maschinen noch nicht so verbaut, dass die Daten leicht an zentrale IT-Systeme für weitergehende Analysen abgegeben werden können. Vielfach erfordert dies zunächst noch Anpassungen im Maschinenbereich. „Dabei steht der Aufwand hierfür oft im Konflikt mit anderen Aufgaben und Prioritäten für die beteiligten Personen“, betont Dill. Generell erfordere die Einführung von Big-Data-Lösungen in der Produktion ein strategisches Vorgehen. „Nicht jeder wird den Nutzen gleich erkennen und bereit sein, die (vermeintlich gut) laufenden Prozesse weiterzuentwickeln. Hinzu komme die Kluft zwischen Produktions- und IT-Bereichen in vielen Unternehmen. Vielfach spricht man nicht die gleiche Sprache und verwendet unterschiedliche Techniken und Methoden.

Nicht zuletzt verweist Ben Connors gleich auf mehrere Hürden: „Ein Hindernis liegt darin, die Mitarbeiter mit den relevanten Kompetenzen auszustatten, um mit großen Datenmengen zielführend umzugehen.“ Eine McKinsey-Studie schätzt, dass es allein in den USA bereits einen Fachkräftemangel von bis zu 190.000 fehlenden Data Scientist gibt. Darüber hinaus werden laut Connors Themen wie Datenschutz und -eigentum auch in den nächsten Jahren weiter heiß diskutiert werden. „Big-Data-Technologien sind ein Werkzeug – und wie das mit Werkzeugen so ist, kann man diese für gute Zwecke aber auch zum Schaden einsetzen. Solange wir keine klare Definition darüber haben, wie Daten genutzt werden dürfen, werden wir immer mit Hindernisse beim Einsatz solcher Lösungen konfrontiert sein.“

 

Big Data in der Produktion

Vor der Nutzung von Analysesoftware in der Produktion ­sollten sich die Verantwortlichen folgende Fragen vor Augen führen:

  •   Wie sieht die konkrete Zielsetzung aus?
  •   Welche Daten werden dafür benötigt? Müssen hierfür ­spezielle Sensoren oder RFID-Chips installiert werden?
  •   Wer übernimmt die Konzeption und Betreuung des ­Analysesystems?
  •   Welche Verantwortlichkeiten und Compliance-Richtlinien gilt es zu definieren? Wie gestaltet sich die Data ­Governance?
  •   Welche Prozesse müssen eingeführt und überprüft werden?

Quelle: Thomas Martens, Vice President bei Cubeware

 

Bildquelle: Thinkstock/iStock

©2016 Alle Rechte bei MEDIENHAUS Verlag GmbH