Machine Learning und Predictive Analytics

Die neuen Datenpiloten

Dank Technologien wie Machine Learning können durch die Analyse von Geschäftsdaten immer präzisere Vorhersagen getroffen werden. Allein mit Künstlicher Intelligenz ist dabei allerdings noch keinem geholfen – vielmehr braucht es Personal, das die Aussagekraft solcher Prognosen auch zuverlässig validieren kann.

Start eines Flugzeugs

In neue Analytics-Dimensionen starten – oft eine Frage des richtigen Personals.

Kaum einem Puzzleteil der Digitalisierung wird hierzulande mehr Ehrfurcht entgegengebracht als Big Data. Fast schon pflichtschuldig geben große und kleine Unternehmen jedes Jahr aufs Neue in den Studien der Verbände und Beratungshäuser an, sich in naher Zukunft intensiv mit dem Thema befassen zu wollen. So etwa auch in einer Umfrage des Digitalverbandes Bitkom aus dem vergangenen Jahr. Dort ordnet mehr als die Hälfte aller befragten Geschäftsführer und Vorstände dem Thema noch vor Technologien wie 3D-Druck oder IoT die höchste Priorität zu. Die Ambitionen kommen nicht von ungefähr, fußen doch nahezu alle wichtigen Zukunftstechnologien auf diesem grundlegenden Baustein. Ohne Daten kein Wettbewerbsvorteil – diese Erkenntnis hat sich längst herumgesprochen. Dabei geht es in der Praxis oftmals viel weniger um das reine Erschließen, sondern viel mehr auch um das Strukturieren und Auswerten von großen Datenmengen. Eine Aufgabe, bei der Künstliche Intelligenz (KI) eine immer wichtigere Rolle einnimmt.

Relationen identifizieren und Erkenntnisse abbilden

Carsten Bange, Geschäftsführer des Business Application Research Center (BARC), hält beim Einsatz von Technologien wie Machine Learning im Bereich der Datenanalyse vor allem die automatische Erkennung von Mustern in Geschäfts- und Unternehmensdaten für einen entscheidenden Vorteil. „Das kann in strukturierten Daten die Entdeckung von Zusammenhängen, Abhängigkeiten oder Ähnlichkeiten sein“, so Bange. Damit könne man wiederum Segmente finden sowie Klassifikations- und Vorhersageaufgaben lösen. Christian Werling, Regional Director DACH bei Thoughtspot, führt Automated Data-Discovery als vielversprechendes Beispiel für die Synergien zwischen Datenanalyse und Künstlicher Intelligenz an: „Automated Data-Discovery automatisiert den Prozess der Datenanalyse und -erkundung in Echtzeit. Dies umfasst alles von der Auswahl der Datensätze über die Ausführung von Abfragen, die Suche nach Erkenntnissen bis hin zur Auswahl einer geeigneten Visualisierung.“ Die Anzahl der möglichen Fragen, die an Daten gestellt werden können, sei oft zu groß für den Menschen. Maschinelles Lernen helfe laut Werling dabei, die komplexen Datensätze mit wenigen Klicks zu erforschen und sich die Ergebnisse in natürlicher Sprache erklären zu lassen.

„Viele Schritte im Prozess der Advanced Analytics werden immer stärker durch Software automatisiert – AutoML ist einer der größten Trends momentan und ein Ende ist nicht wirklich abzuschätzen“, stellt auch Carsten Bange fest. Was aber ganz wesentlich sei und nicht von Software gelöst werden könne, ist der sinnvolle Einsatz von Analyseergebnissen in Fachprozessen und Geschäftsmodellen sowie das Management der Veränderungsprozesse, die damit einhergehen. Digitalisierung werde letztlich analog durch Menschen entschieden und umgesetzt. Ein Aspekt, den auch Christian Werling betont: „Es ist der Mensch, der sofort erkennt, dass es keine Anomalie ist, dass es in Australien mehr Kängurus als im Schwarzwald gibt.“ Damit maschinelles Lernen exakte, relevante und vertrauenswürdige Erkenntnisse liefern könne, sollte man sich nicht nur auf die integrierten Lernalgorithmen verlassen, sondern Menschen in diesen Prozess einbinden. „Der Nutzer kann dem System beispielsweise mit einem einfachen Klick beibringen, welche Erkenntnisse nützlich sind und welche nicht“, so Werling. Dadurch würden die angezeigten Erkenntnisse immer mehr auf die spezifischen Bedürfnisse des Nutzers zugeschnitten.

Während die Vorteile bei Geschwindigkeit, Datenvolumina und dem Detailgrad von Analysen und Planungen bei KI-gestützten Analysen unbestritten seien, sei die Qualität der Ergebnisse, Prognosegüte und Nachvollziehbarkeit im Vergleich zu menschlichen Analysten laut Peter Küssner zweifelhaft. Der Cubeware-Geschäftsführer hält dementsprechend die konkreten Umgebungen und Anwendungsfälle bei der Beurteilung von Advanced Analytics für entscheidend. Dort, wo vorhersagende Algorithmik an ihre Grenzen stoße, könne auch nicht aus Vergangenheitsdaten gelernt werden. Darüber hinaus seien auch Faktoren wie die Datenqualität und die Beschaffenheit der Vorhersagemodelle wichtige Aspekte bei der Einschätzung entsprechender Ergebnisse. Zu guter Letzt behalten Modelle ihre Aussagekraft laut Peter Küssner lediglich, wenn sich die abgebildeten Zusammenhänge in der Zukunft nicht ändern: „Nur dann können diese erlernt und für Vorhersagen genutzt werden. Treffsichere und vor allem längerfristige Prognosen für dynamische Geschäftszusammenhänge bieten keine stabilen Strukturen“, so sein Fazit.

Datenwissenschaftler gefragt

Mit der zunehmenden Komplexität von Analysemethoden steigt auch die Nachfrage nach entsprechendem Personal. Das ist – wie die meisten Fachkräfte in der IT-Branche – aber gar nicht so einfach zu bekommen. In vielen Studien und Ranglisten wird der Job des Datenwissenschaftlers aktuell sogar als wichtigste und gefragteste Position überhaupt gehandelt. Dass die Nachfrage das Angebot in diesem Segment bei Weitem übersteigt, ist da nur naheliegend. „Die Rolle des Datenexperten oder Datenanalysten war noch nie so wichtig wie heute“, betont auch Christian Werling. Die Experten würden, Geschäftsbereichen und anderen nichttechnischen Anwendern dabei helfen zu verstehen, wie sie die verfügbaren Technologien nutzen können, um ihre Fragen zu beantworten. Sie seien Mentoren für Datenkompetenz. Damit ist laut Werling die Fähigkeit gemeint, aus Daten aussagekräftige Erkenntnisse zu gewinnen und diese in einer Weise anzuwenden, die dem Unternehmen zugutekommt.

Das Konzept der Datenkompetenz lehne die traditionelle Weisheit ab, dass nur wenige Mitarbeiter Informationshüter sein sollten. Stattdessen würden datenkompetente Mitarbeiter Wissen verbreiten, den Datenzugriff erweitern und die Entscheidungsfindung für alle verbessern. Dies bedürfe aber einer neuen Kultur, in der Daten als primäres Entscheidungsinstrument geschätzt werden. Darüber hinaus werden sich laut Werling aber auch die Aufgaben und Rollen abseits der Endnutzer verändern und sich auf anspruchsvollere Themen wie Data Mining und komplexere Analysen wie Predictive Analytics konzentrieren, anstatt OLAP-Cubes und Ähnliches aufzusetzen.

Auch Peter Küssner sieht große Veränderungen auf die Datenexperten zukommen: „Schaut man sich die Entwicklung von Analysesystemen der letzten 60 Jahre an, dann wird schnell augenfällig, dass der Anteil an manuellen bzw. menschlichen Eingriffen in die Analysetätigkeit immer kleiner wird und sich immer weiter in Richtung der tatsächlich zu treffenden Entscheidung verschiebt. Das Schlagwort Decision Automation spiegelt diese Entwicklung eindrucksvoll wider.“ In der Vergangenheit hätte die Datenpflege einen Großteil der Arbeit von Datenanalysten eingenommen. Dieser werde aber zunehmend weniger, je höher man die Evolutionsleiter von Analysesystemen erklimme. Im gleichen Zuge wird laut Küssner aber der Aufwand, der in die Auswertung von Entscheidungsvorlagen fließt, größer.

Dr. Gerhard Svolba, Analytic Solutions Architect bei SAS Österreich, glaubt zudem, dass Datenanalysten stärker in operative Prozesse eingebunden werden. „Zudem wird es mehr Daten und höhere Anforderungen an die Analysen geben“, so sein Befund. Es würden größere Datenmengen analysiert werden, wozu es wiederum die richtigen Tools brauche. Nicht zuletzt bekomme die Umsetzung in die operative Welt mehr Gewicht – dafür seien Aspekte wie Container, REST-API, Real-Time Scoring und Datenbankanbindung ausschlaggebend.

Da „Data Science“ weniger am akademischen Reißbrett entstanden ist, sondern eher einem organisch gewachsenen Berufsbild entspricht, unterscheiden sich die Schwerpunkte der Spezialisten teilweise erheblich. Datenwissenschaflter weisen in der Regel aber einen guten Querschnitt aus Kompetenzen in Fachbereichen wie Statistik, Programmierung und Betriebswirtschaft auf. Sie müssen Zahlen und Analysen in konkrete Handlungsvorschläge übersetzen können. Der richtige Zeitpunkt für die Beschäftigung solcher Spezialisten ist laut Carsten Bange dann gegeben, wenn ein strategisches und operatives Verständnis dafür existiert, wie explorative Analyse und datengetriebene Prozesse und Datenprodukte funktionieren und erste Prototypen für Use Cases umgesetzt wurden. Für Peter Küssner hängt der Einsatz von eigenen Datenexperten sowohl vom Anwendungsfall als auch vom Geschäftsmodell des jeweiligen Unternehmens ab. Prinzipiell könne der Aufbau von firmeninternen Kompetenzen den eigenen Digitalisierungsbestrebungen aber durchaus zuträglich sein, da der effiziente und effektive Umgang mit Daten noch wichtiger werde. „Früher oder später kommt jedes Unternehmen an den Punkt, wo beschreibende und diagnostische Systeme das Interesse nicht mehr alleine befriedigen können“, so Küssner.

Dies ist ein Artikel aus unserer Print-Ausgabe 11/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Da in vielen Unternehmen auch weniger geschulte Endanwender bereits mit Self-Service-Lösungen aus dem Business-Intelligence-Bereich arbeiten, kann hier gut bei der Einführung von Systemen für Advanced Analytics angesetzt werden. Laut Christian Werling funktioniert auch hier die Vorgehensweise am besten, mit einem kleinen Use Case anzufangen, der sich im Nachgang auch auf größere Maßstäbe anwenden lässt. „Mit einem fokussierten, klar definierten Anwendungsfall zu beginnen, erhöht nicht nur die Chance, eine Genehmigung für das Projekt zu erhalten, sondern auch, es erfolgreich abzuschließen“, so sein Befund. Bestehende BI-Herausforderungen, die mit herkömmlichen Tools nicht gut abgedeckt werden können, seien ein guter Ansatzpunkt. Dasselbe gilt für manuelle Prozesse, die Engpässe verursachen und automatisiert werden könnten.

Genau wie bei der Implementierung von BI-Lösungen spielt auch beim Aufbau von Advanced-Analytics-Systemen die Auseinandersetzung mit den eigenen Unternehmensdaten eine primäre Rolle. Sobald klar ist, welche übergeordneten Ziele mit einer Analytics-Lösung verfolgt werden sollen, müssen verschiedene Parameter in diesem Zusammenhang definiert werden. Dahingehend muss nicht nur die Frage beantwortet werden, welche Daten überhaupt gebraucht werden, sondern auch geklärt werden, woher diese überhaupt kommen sollen. Letzteres verdeutlicht dabei zugleich, wie wichtig eine vorausschauende Planung bei Definition dieses Aspekts ist, wie auch Christian Werling betont: „Es sind nicht nur die Daten von heute, sondern auch die Daten von morgen, für die Unternehmen planen müssen. Im Telco-Bereich werden z. B. Unmengen zusätzlicher Daten aus der neuen 5G-Infrastruktur anfallen. Die Datenarchitektur muss in der Lage sein, all diese verschiedenen Systeme zu unterstützen, Abfragen über sie hinweg auszuführen und sie zu verbinden – je schneller, desto besser.“

Nicht nur neue Mobilfunkstandards sorgen dafür, dass sich Unternehmen auf immer größere Datenströme einstellen müssen – Technologien wie IoT und Cloud tragen schon jetzt zu dem enormen Wachstum bei. Unternehmen sollten dementsprechend nicht in die Situation geraten, irgendwann nur noch auf diese Massen an Informationen reagieren zu können, sondern auch von dem darin verborgenen Wissen zu profitieren, um damit gezielt am Markt agieren zu können.

Business Intelligence vs. Advanced Analytics

Bei Business Intelligence handelt es sich um eine Methodik, mit der Unternehmen Prozesse systematisch analysieren können. Dazu sammelt ein BI-System Daten aus unterschiedlichen Quellen, wertet diese anschließend aus und visualisiert sie. Ziel von BI-Lösungen ist es, eine solide Grundlage für unternehmerische Entscheidungen zu schaffen. BI-Tools stellen allerdings ausschließlich Auswertungen bereit, die sich auf die aktuelle Ist-Situation oder die Vergangenheit beziehen. Das ist der wesentliche Unterschied zu Advanced Analytics, da sich diese Technologie mit Zukunftsprognosen beschäftigt. Ad­vanced-Analytics-Tools dienen dem Aufbau von Analysemodellen oder Simulationen. Sie helfen Unternehmen dabei, den Ist-Zustand besser nachvollziehen und für die Zukunft bessere Vorhersagen treffen zu können. Advanced Analytics umfasst Bereiche wie Data Mining oder auch Predictive Analytics, das für Unternehmen verlässliche Antworten auf die Frage liefern kann, was in Zukunft höchstwahrscheinlich passieren wird.

Quelle: Niels Pothmann, Head of AI bei Arvato Systems

Bildquelle: Getty Images / iStock / Getty Images Plus

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok