Predictive Analytics statt Bauchgefühl

Big-Data-Analyse als Werkzeug der Industrie

Im Interview erläutert Ben Connors, Worldwide Head of Alliances bei Tibco Jaspersoft, wie Big-Data-Technologien den Aufgabenbereich der Produktionsmitarbeiter positiv beeinflussen können und welche Vorteile Predictive Analytics mitsichbringen kann.

Ben Connors, Tibco Jaspersoft

Ben Connors, Worldwide Head of Alliances bei Tibco Jaspersoft

IT-DIRECTOR: Herr Connors, in welchen Bereichen können Lösungen für die Big-Data-Analyse im Produktionsumfeld sinnvoll eingesetzt werden?
B. Connors:
Die Lösungen können überall dort sinnvoll eingesetzt werden, wo Big Data auch tatsächlich gesammelt bzw. gesammelt werden können. Herkömmliche Big-Data-Quellen sind beispielsweise Daten aus Systemen wie Produktionsoutput, -qualität, -volumen oder -kosten. Aber der Kreativität sind keine Grenzen gesetzt: Es können Daten aus ganz unterschiedlichen Quellen sinnvoll analysiert werden, wie Instrumentendaten von Produktionsanlagen – zur Qualitätskontrollanalyse; Sensordaten von Produkten, die bei Kunden im Einsatz sind – für die vorbeugende Instandhaltung oder auch externe Quellen wie Umgebungsdaten (für Auswirkungen auf die Herstellung oder die Produktleistung) mit internen Quellen kombiniert werden.

IT-DIRECTOR: Welche Daten spielen in der Produktion generell eine besonders wichtige Rolle, welche können eher vernachlässigt werden?
B. Connors:
Heute werden bereits Daten in Bereichen wie der Produktionsmenge, Produktqualität, im Ertragsvolumen und den Kosten routinemäßig erfasst und überwacht. Allerdings werden im Moment viele weitere Datenquellen vernachlässigt, die aber für eine bessere Entscheidungsfindung und Predictive Analytics genutzt werden könnten. So liefern sogar die Datenberge, die Mitarbeiter und sogar Produktionsprozesse einfach durch ihre tägliche Arbeit verursachen, wertvolle und nützliche Erkenntnisse. Solche Datenströme umfassen beispielsweise Faktoren wie Produktionsmaschinen und/oder -prozessparameter, Umweltbedingungen, Handhabung oder gar Versandbedingungen. Diese Datenmengen werden deshalb vernachlässigt, weil es bislang zu teuer war, diese zu sammeln und zu speichern. Mit den heutigen preiswerten Sensoren, Netzwerken, Speichermedien und Systemen wie Hadoop, besteht aber nahezu kein Grund mehr, irgendwelche Daten nicht miteinzubeziehen. Hadoop könnte das „Glück von morgen“ sein, das Fragen versteht und umfangreiche Prozesse optimiert.

IT-DIRECTOR: Können Sie uns bitte ein konkretes Beispiel für den Big-Data-Einsatz im Produktionsumfeld von Großunternehmen beschreiben?
B. Connors:
Ein 2014 veröffentlichter McKinsey-Bericht beschreibt, wie einige Unternehmen mit Big Data in Produktionsanwendungen umgehen. In einem Beispiel, überwacht ein Hersteller von Biopharmazeutika mehr als 200 Produktionsvariablen im Prozessfluss, um Produktqualität und -reinheit sicherzustellen. Denn der sehr komplexe Prozess hat in scheinbar identischen Chargen Schwankungen im Produktionsvolumen von 50 bis 100 Prozent verursacht. Es versteht sich von selbst, dass dieser Umstand zu einigen Herausforderungen in den Bereichen Qualität, Kapazität, Auslastung und sogar Einhaltung von gesetzlichen Regelungen geführt hat. Mittels fortschrittlicher Analytics und Big Data aus den unterschiedlichen Quellen des Produktionsprozesses, versuchte das Unternehmen mögliche Trends, Abhängigkeiten, Zusammenhängen und Kausalitäten für diese Schwankungen zu finden. Die Palette der möglichen Einflussfaktoren war sehr groß, aber das Unternehmen konnte die wichtigsten neun Variablen identifizieren, die den größten Einfluss auf das Produktionsvolumen haben. Durch die entsprechende Anpassung des Verfahrens konnte das Unternehmen dann das Produktionsvolumen um 50 Prozent erhöhen und über fünf Millionen US-Dollar pro Jahr einsparen. Wohlgemerkt nur für eines ihrer Produkte – und sie haben Hunderte von Produkten, die durch ähnliche Analysen profitieren könnten.

IT-DIRECTOR: Auf welche Art und Weise könnten Big-Data-Plattformen fehlende Transparenz im Produktionsgeschehen wettmachen
B. Connors:
Das Sprichwort sagt: „Was man nicht messen kann, kann man nicht lenken.“ Und das heißt: „Wenn man die richtigen Daten nicht hat, kann man auch nicht richtig messen“. Big Data bietet die Grundlage für die feinkörnige Sichtbarkeit, die Transparenz im Produktionsprozess schafft. Anstelle eines 'Bauchgefühls' steht eine gründliche Analyse des Produktionsprozesses auf Basis einer sorgfältigen Prüfung und Evaluation der rohen Produktionsdaten.

IT-DIRECTOR: Inwieweit würden sich die Aufgaben der Mitarbeiter durch den Einsatz von Big-Data-Technologien verändern?
B. Connors:
Der Aufgabenbereich der Produktionsmitarbeiter wird in positiver Weise beeinflusst werden; sie werden mehr Zeit mit Analysen verbringen, um Probleme zu vermeiden und potentiell weniger Zeit damit verbringen diese (wenigen) Probleme zu beheben. Kompetenzen wie Analytics und Data Science werden für diese Aufgabenprofile zunehmend an Bedeutung gewinnen, sie könnten sogar der herkömmlich geforderte „Erfahrung“ den Rang ablaufen. In dem Maße wie Big Data Analytics sich verbreitet, werden Instinkt und persönliche Erfahrung bei der Ursachensuche von Vorfällen weniger wichtig und die datenbasierten Vorhersagen steigen im Wert.

Wie Viktor Mayer-Schönberger und Kenneth Cukier in ihrem Buch verdeutlichten „Big Data: Eine Revolution, die überführen wird, wie wir leben, arbeiten und denken“ verliert die Kausalität gegenüber der Korrelation im Produktionsprozess an Bedeutung; daher haben Mitarbeiter, die im Bereich Big Data Analytics geschult sind, die Tools zur Hand, um solche Zusammenhänge aufzudecken. Dazu geben die beiden folgendes Beispiel: „Wenn Millionen von digitalen Krankenakten aufzeigen, dass bei Patienten, die eine Kombination von Aspirin und Orangensaft zu sich nehmen, der Krebs rückläufig ist, dann ist die exakte Kausalität der Gesundheitsverbesserung weniger entscheidend, als die Tatsache, dass diese Menschen weiterleben. Anders gesagt: es reicht doch vollkommen aus, den Zeitpunkt zu kennen, wann das Flugticket am günstigsten ist, ohne dass wir die ganzen Ursachen für Flugpreisschwankungen verstehen.

IT-DIRECTOR: Welche Hürden sehen Sie für eine flächendeckende Nutzung von Big-Data-Lösungen in der Produktion?
B. Connors:
Das größte Hindernis liegt darin, die Mitarbeiter mit den relevanten Kompetenzen auszustatten, um mit großen Datenmengen zielführend umzugehen. Eine McKinsey-Studie schätzt, dass es allein in den USA bereits einen Fachkräftemangel von bis zu 190.000 fehlenden Data Scientist und ca. 1,5 Millionen fehlenden Manager und Analysten mit Big-Data-Kenntnissen gibt.

Ein weiteres Hindernis besteht darin, die großen Vielfalt von Datentypen und Formaten sowie die Qualität der einzelnen Daten umfassend zu verstehen. Die Daten aus den unterschiedlichen Quellen in synergetische Einsichten zu verwandeln – das ist mit Sicherheit eine sehr große Herausforderung aber gleichzeitig auch der Bereich, der am lohnendsten sein wird. Darüber hinaus wird die Thematik um Datenschutz und Dateneigentum auch in den nächsten Jahren weiter heiß diskutiert werden. Big Data ist ein Werkzeug – und wie das so mit Werkzeugen ist, kann man diese für gute Zwecke aber auch zum Schaden einsetzen. Solange wir keine klare Definition darüber haben, wie Daten genutzt werden dürfen (wenn wir überhaupt in der Lage sind, uns darauf zu einigen), werden wir immer mit Hindernisse beim Einsatz solcher Lösungen konfrontiert sein. Denn je nachdem um welchen Typ eines Produktionssystems es sich handelt, kann Data Privacy ein sehr relevantes Thema sein.

IT-DIRECTOR: Wie lassen sich sämtliche Datenquellen (Maschinen, Prozesse, Produkte) und Systeme (ERP, SCM, BI) am besten integrieren? Auf welche Standards sollten die IT-Verantwortlichen hier vor allem achten?
B. Connors:
Der optimale Ansatz hängt immer vom Anwendungsfall ab. In manchen Fällen bietet es sich an mit ETL, d.h. Extract/Transform/Load (ETL) oder der neueren Big-Data-Variante Extract/Load/Transform (ELT), die Daten aus unterschiedlichen Systemen und Datenbanken zu aggregieren. Diese Methode bietet viel Flexibilität und ist nützlich, wenn eine hohe Latenz toleriert werden kann, wie bei wöchentlichen Produktionsdaten. Bei Fällen, in denen Datenintegration mit geringer Latenz gefordert ist, sollte der Ansatz mittels eines Echtzeit API (Application Programming Interface), ESB (Enterprise Service Bus) oder vergleichbaren Technologien gewählt werden. Damit kann eine Datenintegration für Anwendungsfälle ermöglicht werden, in denen die Prozesskontrolle fast in Echtzeit laufen muss.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok