Wie Algorithmen weiterhelfen

Der richtige Umgang mit Analytics und Big Data

Der richtige Umgang mit Analytics und Big-Data-Analysen will gelernt sein. Laut Dr. Marcus Dill, CEO von Mayato, helfen klare Ziele, präzise Fragestellungen und nicht zuletzt die passenden Algorithmen helfen schon einmal weiter.

Marcus Dill, Mayato

Marcus Dill, CEO bei Mayato

IT-DIRECTOR: Herr Dill, glaubt man den Marketing-Aussagen der Software-Anbieter, reicht allein die Anschaffung von Big-Data-Tools aus, um Unternehmen mittels vorausschauender Analysen auf die Erfolgsspur zu bringen. Inwieweit ist eine solche Einschätzung realistisch oder doch viel zu kurz gegriffen?
M. Dill:
Im Amerikanischen gibt es den schönen Spruch „A fool with a tool is still a fool", der auf die allermeisten Einsatzgebiete von Software zutrifft und ganz sicher auch für Big-Data-Tools im Bereich Marketing gilt. Der Einsatz von Werkzeugen ohne eine klare Strategie und ein Verständnis von Zielen und Prioritäten ist in den seltensten Fällen sinnvoll. Standardsoftware kann helfen, wo sie nicht nur einen Sammelsurium von Möglichkeiten bereithält, sondern bewährte, vorgedachte Prozesse mitbringt, und wo ein Unternehmen bereit ist, diese als Best Practice für sich zu übernehmen. Viele Big-Data-Tools sind aber tatsächlich nicht mehr als Werkzeugkästen, mit denen man viel – aber eben auch viel Falsches – machen kann. Außerdem wird man selbst mit guter Standardsoftware ohne eigenes Nachdenken und Zutun immer nur erreichen können, dass man nicht wesentlich schlechter ist als der Wettbewerb. Wo man nach Führerschaft (Markt, Preis, Technologie,...) strebt, muss man eigene Wege gehen und selbst innovativ werden. Natürlich können einem Software-Angebote dann helfen, aber von selbst geht das alles nicht.

IT-DIRECTOR: An welchen Stellschrauben müssen die Verantwortlichen tatsächlich drehen, damit der Einsatz von Big-Data-Analyse-Software das Unternehmen entscheidend voranbringen kann?
M. Dill:
Ohne ein klares Ziel vor Augen und präzise Fragestellungen führen Big-Data-Auswertungen möglicherweise zu punktuellen, anekdotischen Erfolgen. Ihre wahre Wirkung entwickelt Analytics allerdings nur, wenn das Vorgehen in ein strategisches Ganzes eingebettet ist. Dazu gehört neben der Zielvision auch das richtige Mindset für den Umgang mit Daten – von der Konzeption von Anwendungen über die Erfassung von Daten und deren Speicherung und Weiterverarbeitung bis hin zu deren Nutzung. In den meisten Unternehmen fehlt hier noch das Bewusstsein, dass Erfolge durch Analytics davon abhängen, dass im Vorfeld viele Menschen, die selbst nichts mit Data Science zu tun haben, einen sauberen Job gemacht haben. Die Einführung einer Data Governance ist aus meiner Sicht die zentrale Voraussetzung, um als daten- und analysegetriebenes Unternehmen erfolgreich zu sein.

IT-DIRECTOR: Generell sind Analysen bzw. deren Ergebnisse immer nur so gut wie die Algorithmen, die ihnen zugrundeliegen. Wer in den Anwenderunternehmen sollte die Erstellung von Algorithmen übernehmen?
M. Dill:
Algorithmen wurden in den letzten Jahrzehnten so viele entwickelt, optimiert und in gängige Softwareprodukte integriert, dass man nur in den seltensten Fällen wirklich eigene Algorithmen entwickeln muss. Ein Unternehmen braucht primär Wissen, mit welchen bestehenden Verfahren welche Fragen zu lösen sind, vor allem aber auch ein Verständnis, was im Vorfeld mit diesen Daten zu passieren hat, damit diese Algorithmen überhaupt etwas damit anfangen können. Dieses Wissen sollte nahe beim jeweiligen Fachbereich liegen, da die Ergebnisse einer Analyse immer nur im Lichte fachlicher Zusammenhänge plausibilisiert werden können. Natürlich ist gerade für die Datenvorbereitung oftmals eine enge Zusammenarbeit mit der IT erforderlich.

IT-DIRECTOR: Inwieweit kann dabei sichergestellt werden, dass Fachabteilungen eigene Big-Data-Analysen erstellen können, ohne auf das Fachwissen spezieller „Data Scientists“ angewiesen zu sein?
M. Dill:
Viele Analyseprozesse lassen sich so kapseln und automatisieren, dass sie weitgehend ohne menschliches Zutun laufen, wenn mal die ersten Auswertungen erfolgt und die Analysemodelle erstellt sind. Nach der initialen Modellierung werden in vielen Fällen Data Scientists nur gebraucht, um Modelle nachzukalibrieren bzw. zu validieren, dass sie in ihrer Gültigkeit nichts eingebüßt haben. Tatsächlich kann man in der Praxis auch die Aufgabe der regelmäßigen Validierung weitgehend automatisieren, sodass der Data Scientist nur noch benötigt wird, wenn es konkreten Handlungsbedarf gibt. Die Situation in gut aufgesetzten Analytics-Prozessen lässt sich mit einer Maschine vergleichen, die nur gelegentlich vom Servicetechniker gewartet werden muss, aber sonst friedlich läuft.

IT-DIRECTOR: Wie lassen sich aus den durch Big-Data-Analysen ermittelten Mustern und Zusammenhängen konkrete Erkenntnisse ziehen? Und im nächsten Schritt gar konkrete Handlungsempfehlungen ableiten?
M. Dill:
Die Ergebnisse von Big-Data-Analysen sind in der Regel zunächst Produkte mehr oder weniger komplexer mathematisch-statistischer Methoden. Wenn etwas statistisch signifikant ist, heißt es aber noch lange nicht, dass es auch relevant oder verwertbar ist. Beispielsweise kann eine Assoziationsanalyse Zusammenhänge beim Kauf verschiedener Produkte ermitteln, von denen aber viele wenig überraschend (Beispiel: wer Skier kauft, kauft auch Winterunterwäsche) oder trivial (Beispiel: Pfandartikel) oder prozessual (Beispiel: Dummy-Artikel) bedingt sein. Selbst wenn sich ein Zusammenhang als neu und relevant erweist, lässt sich damit unter Umständen nur wenig anfangen, da es keine Maßnahmen gibt, um sich die gewonnene Erkenntnis zunutze zu machen. Um aus den maschinell erzeugten statistischen Zusammenhängen echte Erkenntnis zu machen und sinnvolle Maßnahmen abzuleiten, ist eine Kombination aus Verständnis der statistischen Gütekennzahlen und Kenntnis von fachlichem Hintergrund und Prozessen erforderlich. Ideal sind für solche Fragen Fachbereichsmitarbeiter, die ihr Geschäft seit langem kennen, aber auch gute Grundlagen in der Interpretation von Analyseergebnissen haben. Tatsächlich lassen sich die Qualitätskennzahlen vieler Algorithmen auch verstehen, ohne dass man selbst ein ausgebildeter Statistiker sein muss.

IT-DIRECTOR: Ein Bereich von Data Science umfasst Methoden wie Machine Learning oder Deep Learning. Was genau verbirgt sich dahinter?
M. Dill:
Viele der Begrifflichkeiten im Umfeld Data Science werden unpräzise verwendet. Neue Schlagwörter sollen den Eindruck bahnbrechender Neuerungen vermitteln. In gewissem Sinn gilt dies auch für den Begriff Deep Learning. Was aber den Erfolg der Verfahren von Machine Learning und anderen intelligenten Algorithmen nicht schmälern soll. Nach nunmehr über einem halben Jahrhundert an weltweiter Forschung und Entwicklung existiert heute eine Unzahl an Verfahren, die selbständig Daten auswerten, Muster in diesen erkennen und in vielen Fällen auch schon über geeignete Regelkreise steuernd eingreifen können. Diese Entwicklung ist auch lange noch nicht an ihrem Ende angekommen.

IT-DIRECTOR: Inwieweit braucht man in Zeiten von künstlicher Intelligenz und selbstlernenden Algorithmen den Menschen überhaupt noch?
M. Dill:
Theoretisch können Algorithmen vermutlich in nicht allzu ferner Zukunft tatsächlich fast alle Aufgaben von Menschen übernehmen. In der Praxis wird dies aber noch dauern, da der Mensch mit seinen vielfältigen Sinnen, Erfahrungen und Fertigkeit extrem universell ist. Der Vorsprung von Menschen schmilzt zwar, aber für viele Aufgaben wird er sicher noch eine ganze Reihe Jahrzehnte unverzichtbar sein.

IT-DIRECTOR: Warum sind "intelligente, selbstlernende Maschinen" den Menschen überlegen - wie häufig in der IT-Branche kolportiert wird?
M. Dill:
Maschinen werden nicht müde, streiken nicht (außer im übertragenen Sinn) und machen keinen Urlaub. Menschen unterliegen außerdem vielfach Vorurteilen bei der Bewertung von Sachverhalten. Die psychologische Forschung zu diesen in der Fachsprache als Biases bezeichneten Effekten füllt Bibliotheken. Eine der größten Stärken des Menschen – die Fähigkeit in komplexen Entscheidungssituationen effizient "aus dem Bauch heraus" richtige Entscheidungen zu treffen –, hängt sehr eng mit diesen Biases zusammen, beruht gewissermaßen sogar auf diesen. Was dem Menschen in Jahrmillionen der Evolution das Überleben gesichert hat, kann aber in bestimmten Situationen zu Fehlentscheidungen führen. Maschinen unterliegen solchen systematischen Fehleinschätzungen nicht prinzipiell, auch wenn sicherlich noch einige Zeit vergehen wird, bis Algorithmen den Menschen überflüssig gemacht haben werden.

IT-DIRECTOR: Welche Gefahren und Risiken setzt man sich aus, wenn man selbstlernenden Algorithmen blindlings vertraut? Können Sie ein
Beispiel nennen?
M. Dill:
Selbstlernende Algorithmen sind nur so gut, wie die Annahmen, die bei ihrer Konstruktion bzw. Konfiguration hineingesteckt wurden, und wie die Daten, die sie auswerten. In einer sich ständig ändernden Welt kann dies in bestimmten Situationen zum Versagen des Algorithmus oder zu Fehlsteuerungen führen. Verliert beispielsweise ein Algorithmus zur Früherkennung von Betrug über die Zeit seine Prognosekraft (durch neue Produkte oder sonstige Änderungen im Markt) und wird der Status des Verfahrens nicht regelmäßig kontrolliert und qualitätsgesichert, kann dies leicht dazu führen, dass Kunden abgelehnt werden und damit Umsätze ausbleiben. An jeder Schnittstelle zum Kunden kann ein ungewöhnliches Verhalten des Algorithmus zu Befremden oder Verärgerung seitens des Kunden führen.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok