Business Intelligence im Internet der Dinge

Praxisnahe Predictive Analytics

Im Interview erläutert Dr. Stefan Jensen, Director Presales DACH bei dem Software-Anbieter Qlik, den Stellenwert von Business Intelligence (BI) im Internet der Dinge und berichtet über lohnende Einsatzfelder für Predictive Analytics.

Dr. Stefan Jensen, Qlik

Dr. Stefan Jensen, Director Presales DACH bei dem Software-Anbieter Qlik

IT-DIRECTOR: Herr Jensen, im Internet der Dinge entstehen kontinuierlich riesige Datenberge. Was haben die Unternehmen davon – will heißen, wie können sie diese intelligent weiterverarbeiten? Für welche Zwecke lassen sie sich sinnvoll nutzen?
S. Jensen:
Im Grunde geht es darum, den Kunden zu verstehen und die eigenen Prozesse zu straffen. Die Auswertung der Daten macht vieles greifbar: klare Entscheidungsgrundlagen, kalkulierbare Risiken, Kostenreduzierung, aber auch mehr Kenntnisse über den Markt und damit zusätzliche Umsätze und kundenorientierte Innovationen. Wer im B2C-Bereich weiß, wie viel Strom von welchen Geräten bzw. Konsumenten verbraucht wird, kann zum einen den Stromverbrauch über eine flexible Preisgestaltung steuern, zum anderen Lastspitzen vorwegnehmen – kein Wunder also, dass sich Smart Metering als eine der ersten IoT-Anwendungen durchgesetzt hat. Mehr noch: Signale von Geräten zeigen Wartungs- oder Austauschbedarf (und bieten damit eine Chance für den Vertrieb oder Serviceverkauf) und geben – im Rahmen von Industrie 4.0 – Auslastungsdaten sowie Informationen zum gefertigten Produkt (für Qualitätskontrolle, optimierte Produktionsplanung und Automatisierung z.B. bei der Maschinenumrüstung). Eine Business-Intelligence-Lösung (BI) ermöglicht es, diese Daten nicht nur auszuwerten, sondern auch immer neue Fragen aus dem Informationspool zu beantworten.

IT-DIRECTOR: Worauf sollte man bei der Auswahl einer dafür geeigneten Big-Data-Analyse-Software besonders achten?
S. Jensen:
Eine BI-Lösung muss nicht nur ganz verschiedene Datenquellen integrieren können, die Datenanalyse muss auch in Echtzeit erfolgen, denn oft erfordern die Informationen von den Maschinen eine sofortige Reaktion. Dazu ist es nötig, aus der Analyse historischer Daten Regeln herzuleiten. Einfache Bedienbarkeit und eine gute Benutzeroberfläche mit vielfachen Visualisierungsmöglichkeiten sind ein Muss, denn schließlich sollen die Anwender möglichst frei dabei sein, Erkenntnisse aus den Daten zu bekommen – ohne aber den Datenbestand oder die Sicherheit zu gefährden. Ein gutes Maß an Governance mit rollenbasiertem Zugriff ist bei allem Self-Service deshalb ebenso wichtig wie die Möglichkeit zur Kollaboration auf Datenbasis.

IT-DIRECTOR: Wie aufwendig ist die Installation von Big-Data-Technologien im Industrie-4.0- bzw. IoT-Umfeld?
S. Jensen:
Der Aufwand hängt davon ab, wie viele Datenquellen und Datenformate – etwa über Konnektoren – integriert werden müssen. Diese gigantischen Datenvolumina müssen mit Bezug zu den Geschäftsprozessen ausgewertet werden und das auch noch in extremer Geschwindigkeit. Verbindet man also Maschinen, Produkte und Prozesse steht man nicht nur vor einem Datenberg, man braucht auch hohe Rechenleistung und In-Memory-Analysetechnologie.

IT-DIRECTOR: Wie ist es um die Datenintegration von Sensordaten mit mächtigen Big-Data-Tools oder CRM-Systemen bestellt? Woran könnte eine nahtlose Anbindung scheitern?
S. Jensen:
Bei dem Internet der Dinge und Industrie 4.0 fällt eine immense Menge von Daten an. Es bietet sich an, Daten maschinennah etwa in Hadoop zu sammeln, zu speichern, zu analysieren und anzupassen. Darauf bauen dann BI-Lösungen auf und machen die Daten für Anwender einfach und gleichzeitig bis ins Detail analysierbar. Eine nahtlose Anbindung von Systemen ist dann kein Problem mehr.

IT-DIRECTOR: Immer wieder wird vorausschauende Wartung als Paradebeispiel im Industrie-4.0/IoT-Umfeld genannt. Welche lohnenden Anwendungsbeispiele gibt es darüber hinaus für Predictive Analytics?
S. Jensen:
Über Predictive Maintenance hinaus braucht beispielsweise die reine Produktion eine vorausschauende Planung. Intelligente Datenauswertung hilft hier ebenfalls weiter – etwa wenn man Informationen aus der Vertriebspipeline kombiniert mit dem voraussichtlichen Ressourcenbedarf für die potentiellen Aufträge – berechnet nach den jeweiligen Wahrscheinlichkeiten. Die Ressourcenkennzahlen aus dem ERP-und MES-System sind historische Daten aus vergleichbaren Auftragsproduktionen. Der Effekt: Bessere Termintreue und Lieferfähigkeit, aber auch reduzierte Warenbestände und die optimierte  Einbindung von externen Partnern. Ein weiteres Schlagwort wäre Qualitätssicherung, denn Ursachenforschung bei Fehlerquellen, Ausfällen oder Störungen helfen auch beim Blick nach vorne und der Vermeidung von Problemen.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok