11.10.2016 Erfolgreicher Einstieg in Big Data und Analytics

Neuer Big-Data-Wegweiser

Von: Christoph Witte

Mit dem Big Data Guide legt das SOA Innovation Lab einen Leitfaden vor, an dem sich Unternehmen bei der Gestaltung von Big Data und Advanced-Analytics-Prozessen orientieren können.

Neuer Big-Data-Wegweiser

Der "Big Data Guide" soll Unternehmen bei der Gestaltung von Big Data und Advanced-Analytics-Prozessen unterstützen.

Folgendes Szenario: Ein großer Hersteller von Hausgeräten entscheidet sich, den Service für seine installierten Geräte deutlich kundenfreundlicher auszurichten und gleichzeitig effizienter zu gestalten. Noch vor einigen Jahren hätten sich die Ziele gegenseitig ausgeschlossen, doch mit den Fortschritten in Automatisierung und Digitalisierung lässt sich heute beides erfolgreich anvisieren.

Bisher meldet sich ein Kunde beim Service des Herstellers, sollte das Hausgerät defekt sein. Im besten Fall kann er die Symptome des Defekts beschreiben, aber fast nie seine Ursachen benennen. Daraufhin disponiert das Team einen Servicetechniker, der den Kunden zum vereinbarten Termin aufsucht, den Fehler diagnostiziert und optimaler Weise direkt behebt. Weil der Techniker aber im Vorfeld sehr wenige Informationen über die Ursache des Fehlers erhalten hat, ist die Wahrscheinlichkeit groß, dass sein Servicefahrzeug nicht mit den nötigen Ersatzteilen bestückt ist und der Kunde ein zweites Mal besucht werden muss. Das ist zeitaufwendig, teuer und für beide Seiten frustrierend.

Befriedigender für Hersteller und Kunde ist es, wenn ein einziger Besuch des Technikers ausreichen würde, um den Fehler zu beheben. Das würde aber voraussetzen, dass das Serviceteam mehr Informationen bekommt bzw. analysieren kann, damit der Techniker besser instruiert und sein Fahrzeug mit den richtigen Ersatzteilen bestückt ist. Der neue Big-Data-gestützte Prozess könnte so aussehen: Der Kunde kontaktiert den Service-Point des Herstellers, dieser erstellt ein Serviceticket, in dem die wahrscheinlich benötigten Ersatzteile bereits aufgelistet sind. Die Liste dient gleichzeitig als Pickliste des automatischen Kommissioniersystems, das die Servicefahrzeuge für die Touren des nächsten Tages bestückt. Gleichzeitig dienen die im Ticket aufgeführten Adress- und Termininformationen der Tourenplanung des Servicetechnikers, so dass er jeden Kunden zeitgerecht erreicht.

Möglichst hohe Trefferquote

Damit der Prozess so ablaufen kann, benötigt der Hausgerätehersteller beispielsweise ein sehr potentes, schnelles Data-Mining- und Analysetool, das die vom Kunden geschilderten Symptome mit historischen Defektursachen abgleichen kann, um zu entscheiden, mit welchen Ersatzteilen das Fahrzeug bestückt wird. Außerdem müsste natürlich die Datenqualität sichergestellt werden, um eine möglichst hohe Trefferquote bei den Ersatzteilen zu erzielen.

Um herauszubekommen, was an Fähigkeiten für einen solchen Big-Data-Anwendungsfall benötigt wird, schlägt das SOA Lab eine Matrix vor. Diese richtet sich einerseits an der Richtung – d.h. am Produkt, Kunden oder der eigenen Organisation – aus und andererseits am Ziel der Initiative, also zum Beispiel daran, ein Produkt/Service zu verbessern, neue Märkt zu bedienen oder das Risiko für die eigene Organisation zu reduzieren. In dem skizzierten Beispiel handelt es sich um ein Szenario, das alle drei Dimensionen – Produkt, Kunde und Organisation – umfasst und die Ziele Produkt/Service-Innovation, besseres Kundenverständnis sowie eine höhere Effizienz des Prozesses ins Auge gefasst hat. Die Matrix lässt die Verantwortlichen schnell erkennen, welche Bereiche von einem Use Case betroffen sind und welche Vorteile die Implementierung einer bestimmten Big-Data-Lösung hat. Außerdem hilft dieses Framework zu entscheiden, welche Datenquellen, Schnittstellen und selbst welche Visualisierungs-Tools später benötigt werden. Ob eine bestimmte Big-Data-Anwendung erfolgreich eingeführt werden kann, hängt stark davon ab, ob die Entscheidungsträger die Fähigkeiten (Capabilities) des Unternehmens realistisch beurteilen. Dabei spricht das SOA Lab vom Big-Data-Reifegrad, den sie in fünf Stufen von „Ad-Hoc“ bis „Optimized“ gliedert und in dem die Bereiche Technologie, Architektur sowie Strategie & Governance bewertet werden.

Das „Big Data Capability Model“ weist sieben Schichten auf, die von Datenquelle über Datenzugang bis hin zu Business-Szenarien reichen und sich auf fünf betroffene IT-Bereiche bezieht. Diese beginnen bei System Management & Operation und beziehen Development, Data Governance, Data Security sowie Big Data Integration mit ein.

Data Source bezieht sich auf alle möglichen Datentypen, strukturiert bis unstrukturiert, intern oder extern. Für das Beispiel rund um den Hausgeräteservice müssten die Beteiligen u.a. beantworten, welche Quellen für die historischen Servicefälle zur Verfügung stehen und ob bzw. inwieweit sie in der Lage sind, 40 bis 50 Millionen Datensätze in nahezu Echtzeit für die vorgesehene Analyse zu verarbeiten. Neben diesen historischen Datensätzen kommen aktuelle CRM-Daten, Routendaten etc. dazu. Daraus leitet sich die Frage nach der Speicherung dieser Daten ab. Sind die entsprechenden Speicher- und File-Systeme für das Unternehmen verfügbar bzw. welche Systeme fehlen noch, um die Daten “artgerecht” zu speichern? Welche Konsequenzen ergeben sich aus der Datenhaltung für angrenzende Systeme, für die Daten Governance, Sicherheit und das Systemmanagement?

Die nächste durchzuspielende Frage ist die nach dem Datenzugriff. Im Batch-Verfahren sind die Abläufe und Anforderungen natürlich ganz andere als bei Streaming oder Continuous Event Processing. Selbstverständlich werden verschiedene Prozesse und Applikationen mit unterschiedlichen Mechanismen auf die Daten zugreifen. Von daher müssen sich die Betreiber entscheiden, welche und wie viele verschiedene Data-Access-Möglichkeiten sie zulassen wollen. Auch das hat wieder Konsequenzen auf IT-Landschaft und benötigtes Skill-Set der IT-Mannschaft. Diese Fragestellungen und Bewertungen setzen sich auf den weiteren Ebenen des Models wie Analysetechniken, Aufbereitung und Business Senzarios fort. „Immer spielen verschiedene Ebenen eine Rolle. Das Capability Model strukturiert diesen Prozess und gibt Denkanstöße”, erklärt Dr. Alexander Hildenbrand, Leiter des Workstreams Industrial Analytics. Die Arbeitsgruppe des SOA Innovation Labs ist für die Entwicklung des Big Data Guides verantwortlich. Dabei wird Big Data übrigens in erster Linie als Mechanismen der Datenhaltung und des Datenzugriffs definiert. Die darauf aufbauenden Auswertungen sieht man im Bereich von Analytics.

Big-Data-Projekte brauchen Vertrauensvorschuss

Nachdem geklärt ist, welche Capabilities insgesamt nötig sind und welche davon noch aufgebaut werden müssen, wäre der Aufbau einer Big-Data-Referenz-Architektur der nächste Schritt. Ziel der Big-Data-Referenzarchitektur ist die Verbesserung der Kommunikation unter den Betroffenen, in dem sie einen visuellen Überblick verschafft und eine gemeinsame Terminologie etabliert. Die Architektur legt zum Beispiel fest, welche Technologien und Produkte eingesetzt werden, welche Regeln für Sicherheit und Datenintegration gelten und wer für welche Bereiche Verantwortung trägt. Sie berücksichtigt außerdem Abhängigkeiten von anderen Referenzarchitekturen. Für den Aufbau bietet die Initiative eine Checkliste an, die u.a. folgende Fragen enthält.

•    Soll eine dezentrale oder eine zentrale Big-Data-Instanz geschaffen werden?
•    Wie sollen die Daten verwaltet werden?
•    Wer darf/soll Big-Data-Services im Unternehmen benutzen dürfen?
•    Welche Daten-Inferfaces werden benötigt?
•    Make or Buy?
•    Welche KPIs müssen entwickelt werden?

Insgesamt besteht der How-to-Guide für Big Data und Analytics des SOA Innovation Lab aus fünf Dimensionen und 13 Modulen. Die Dimensionen umfassen die Bereiche Strategie, Technologie, IT-Prozesse und Policies sowie Sicherheit und Compliance. Jede ist unterteilt in Module, die durchaus als Arbeitspakete verstanden werden dürfen.

Sicherlich gibt der Big Data Guide keine Erfolgsgarantie, betont Workstream-Leiter Hildenbrand, der neben seinem Ehrenamt im SOA Lab Leiter Business Applications bei der Wacker Chemie AG ist. „Aber mit seiner Hilfe kann man Big-Data-Projekte strukturiert angehen und deren Erfolgschancen erhöhen.” Ihm persönlich hat die Arbeit an den Richtlinien aber auch gezeigt, dass Big Data einen Vertrauensvorschuss braucht. „Wir können die Vorteile aufzeigen, aber die Fachabteilungen müssen sie realisieren”, deshalb sind die im Big-Data-Zusammenhang gerechneten Business Cases immer mit verschiedenen Variablen belastet, deren Werte man erst dann genau kennt, wenn die Projekte implementiert sind.“

Bildquelle: Thinkstock/iStock

©2017 Alle Rechte bei MEDIENHAUS Verlag GmbH