Predictive Analytics

Prognostische Analysen nutzen

Big Data Analytics hat sich von der beschreibenden über eine interpretierende hin zu einer prognostischen Disziplin gewandelt. Predictive Analytics am oberen Ende der Stufenleiter steht noch am Anfang.

  • „Eine hohe Datenqualität, wie sie für operative Big-Data-Analytics-Aktivitäten benötigt wird, lässt sich nur durch ein systematisches, unternehmensweites Vorgehen erzielen“, berichtet Knut Veltjens, Vice President / Practice Head Business Intelligence bei CGI.

Analysen stellen die benötigten Informationen für Entscheidungen im Mittelstand bereit. Unternehmen haben sich im Bereich Analytics auf der Stufenleiter immer weiter vorgearbeitet. Während sich einige noch auf beschreibende (was ist geschehen?) und interpretierende (warum ist etwas geschehen?) Analysen beschränken, sind andere mittelständische Unternehmen schon weiter. Sie befassen sich mit prognostischen Analysen und wollen wissen, was passieren wird.

Zugegeben: Predictive Analytics als zentrales Einsatzgebiet von Big Data Analytics ist nicht ganz neu und Beispiele für prognostische Analysen gibt es viele. Online-Shops präsentieren Interessenten eine Liste mit Komplementärprodukten und berechnen dafür die Kaufwahrscheinlichkeit. Mit Hilfe von Prognosemodellen optimieren Unternehmen aus dem produzierenden Gewerbe zum Beispiel die ein- und ausgehenden Warenströme sowie die Maschinenauslastung in der Fertigung oder verwenden ein vernetztes System von Sensoren, das die Verfügbarkeit, Zuverlässigkeit und Reparaturwahrscheinlichkeit von Maschinen ermittelt. Logistikunternehmen berechnen Modelle, um ihre Tourenplanung weiter zu verfeinern.

Ein Predictive-Analytics-Projekt ist nie abgeschlossen

Auch wenn es eine beträchtliche Zahl von Berichten über Predictive-Analytics-Projekte gibt, befinden sich noch viele in einem frühen Stadium. In einigen Fällen haben Mittelständler mit zu starren Prognosemodellen für isolierte Umgebungen begonnen. Als sich im Laufe der Zeit die Anforderungen an die betrieblichen Entscheidungsprozesse änderten, konnten die Modelle nicht mehr Schritt halten und diverse Projekte wurden eingefroren und andere ganz beendet.

Predictive-Analytics-Projekte sind nur dann erfolgreich, wenn all ihre Methoden, Verfahren, technologischen und organisatorischen Grundlagen permanent weiterentwickelt werden und die berechneten Prognosen kontinuierlich gegen das eintretende IST verifiziert werden. Die Lernfähigkeit der eingesetzten Prognosemodelle ist dabei einer der zentralen Punkte. Wird die Datenbasis für das Modell verbreitert – das heißt, zusätzliche Datenquellen werden mit einbezogen – sollte das Modell in der Lage sein, die Prognosegenauigkeit zu erhöhen.

Gute Datenqualität zahlt sich aus

Die Grundlage aller Aktivitäten bei Big-Data-Analytics ist die dafür verwendete Datenbasis und deren Qualität. Die Datenqualität ist ausschlaggebend für die Aussagekraft der Ergebnisse prognostischer Analysen. Ob die Bestände den Anforderungen an eine hohe Datenqualität genügen, lässt sich mit Hilfe verschiedener Kriterien ermitteln:
•    Aktualität
•    Eindeutigkeit
•    Einheitlichkeit
•    Genauigkeit
•    Konsistenz
•    Korrektheit
•    Redundanzfreiheit
•    Relevanz
•    Verständlichkeit
•    Vollständigkeit
•    Zuverlässigkeit

Eine zentrale Rolle in diesem Zusammenhang spielt die Data Governance. In der Praxis geht es nicht unbedingt darum, ob die Daten hundertprozentig valide und vollständig sind. Entscheidend ist vielmehr, dass die Analysten und Entscheider sich ein Urteil über die Güte und Beschaffenheit der Daten bilden. Beim traditionellen Reporting und bei Analyseszenarien, die regulatorische Anforderungen betreffen, müssen Daten absolut korrekt sein. Dagegen sind bei Trendanalysen, die einen Ergebniskorridor ermitteln, Unschärfen durchaus akzeptabel.

„Eine hohe Datenqualität, wie sie für operative Big-Data-Analytics-Aktivitäten benötigt wird, lässt sich nur durch ein systematisches, unternehmensweites Vorgehen erzielen“, berichtet Knut Veltjens, Vice President / Practice Head Business Intelligence bei CGI in Sulzbach bei Frankfurt am Main. „Notwendig ist dazu eine kontinuierliche Zusammenarbeit zwischen den Fachbereichen und der IT, denn letztere muss das technologische Fundament für die Arbeit der Analysen bereitstellen.“

Die Rolle eines IT-Dienstleisters wie CGI besteht darin, die Kombination der fachlichen Expertise bei Kunden mit dem eigenen technischen und methodischen Know-how in konkrete Projekte einzubringen. Hinzu kommt der technische Fortschritt in der IT in den letzten Jahren, der neue Möglichkeiten bietet. Zu nennen sind hier die Vervielfachung der Prozessorleistung, der günstigere Speicherplatz, die stärkere Verbreitung von In-Memory-Datenbanken und intuitiv zu bedienende Analyse-Tools wie Heatmaps oder geografische Darstellungen. Für Mittelständler bedeutet dies, dass sie mit den gewonnenen Erkenntnissen ihre Wettbewerbsfähigkeit stärken können.

Bildquelle: Thinkstock

©2021Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok