Keine Algorithmen von der Stange

Worauf es bei Analyse-Tools ankommt

Um das Potential von Big Data zu heben, bedarf es intelligenter Analyse-Tools. Dabei sollte man laut Christoph Hein von Tablonautix auf den Einsatz von Algorithmen "out of the box" besser verzichten.

Christoph Hein, Tablonautix

Christoph Hein, geschäftsführender Gesellschafter bei der Tablonautix GmbH, einem Anbieter von Analytics-Lösungen

IT-DIRECTOR: Herr Hein, gaubt man den Marketing-Aussagen der Software-Anbieter, reicht allein die Anschaffung von Big-Data-Tools aus, um Unternehmen mittels vorausschauender Analysen auf die Erfolgsspur zu bringen. Inwieweit ist eine solche Einschätzung realistisch oder doch viel zu kurz gegriffen?
C. Hein:
Um es kurz zu machen: Nein, die bloße Anschaffung reicht mit Sicherheit nicht aus, um das Potential von Big-Data-Analysen zu heben. Die Anschaffung von Software schafft lediglich die Grundlage. Big-Data-Tools sind das Werkzeug. Die Bedienung erfolgt durch den Menschen. Gerade im Unternehmenskontext spielt die Einbettung in die Gesamtarchitektur eine bedeutende Rolle. Nicht nur die technologischen Grundlagen müssen geschaffen werden – also die Bereitstellung des Tooling –, sondern auch vor allem personelle, kulturelle und organisatorische. Auch wenn die Phrase vielleicht schon „ausgelutscht“ anmuten mag, aber die „data driven company“ als Leitvision ist enorm wichtig. Findet dieses Umdenken nicht statt, haben auch Big-Data-Tools keinen Effekt auf den Unternehmenserfolg.

IT-DIRECTOR: An welchen Stellschrauben müssen die Verantwortlichen tatsächlich drehen, damit der Einsatz von Big-Data-Analyse-Software das Unternehmen entscheidend voranbringen kann?
C. Hein:
Bevor die Evaluierung von Analytik-Tools – egal, für welchen Einsatzzweck – überhaupt Sinn ergibt, muss klar sein, welche Ziele damit verfolgt werden sollen. Es geht darum, einen strategischen Plan zu entwickeln. Fehlt dieser Plan, können Abweichungen nicht ausgemacht werden, keine Maßnahmen zur Optimierung ergriffen und nicht adäquat gegengesteuert werden. Dabei sollte der Plan neben den fachlichen und technologischen Aspekte auch folgende Kernfragen beantworten:
– Welche Abteilungen sollen angeschlossen werden?
– Wer ist innerhalb des Unternehmens für den Betrieb zuständig?
– Wer ist für die Weiterentwicklung verantwortlich?
– Wie lassen sich die Tools in die bestehende IT-Infrastruktur integrieren?

IT-DIRECTOR: Generell sind Analysen bzw. deren Ergebnisse immer nur so gut wie die Algorithmen, die ihnen zugrundeliegen. Wer in den Anwenderunternehmen sollte die Erstellung von Algorithmen übernehmen?
C. Hein:
Das ist eine gute Frage. Viel wurde über den Einsatz von Algorithmen out of the box gesprochen. Also sozusagen Standard-Algorithmen, wie beispielsweise der zur Bestimmung der Wahrscheinlichkeit von Kundenabwanderungsbewegungen. Wir halten das schlicht für Irreführung. Das ist nicht möglich bzw. nur unter großem Verzicht. Out-of-the-box-Lösungen sind charmant, aber auch unflexibel. Ob jedoch Mittelständler wirklich in der Lage sind eigen- und selbstständig Algorithmen zu entwickeln bzw. sich dies ressourcentechnisch leisten können bzw. leisten wollen, das ist die entscheidende Frage. Wenn nicht wirklich Spezialisten – nennen wir diese der einfachheitshalber Data Scientists – angestellt werden, halten wir eher ein Modell aus Fachspezialisten und externen Beratern für realistischer. Die internen Spezialisten bringen das nötige Know-how über das eigene Geschäftsmodell und Erkenntnisinteresse mit; externe Berater sorgen für die technische Umsetzung.

Bei Großunternehmen und Konzernen ist durchaus eine Task Force – ähnlich eines BICC (Business Intelligence Competency Center) – vorstellbar. Also ein interdisziplinäres Team zusammengesetzt aus Mitarbeitern aus der IT, den einzelnen Fachabteilungen sowie aus Projektmanagern, Beratern und Analysten. Nebenbei bemerkt, sind wir der Überzeugung, dass sich das auch hinter dem Begriff des „Data Scientist“ verbirgt – also ein interdisziplinäres Experten-Team, nicht eine Einzelperson.

IT-DIRECTOR: Inwieweit kann dabei sichergestellt werden, dass Fachabteilungen eigene Big-Data-Analysen erstellen können, ohne auf das Fachwissen spezieller „Data Scientists“ angewiesen zu sein?
C. Hein:
Wie sich auch schon beim Hype-Thema „Self-Service BI“ gezeigt hat, ist nicht davon auszugehen, dass Datenanalysen – egal welcher Art – sich ohne Rahmenbedingungen durchsetzen werden. Soll heißen, in irgendeiner Form werden Fachabteilungen mit Regulierungen zu tun haben, seien diese nun organisatorischer oder technologischer Art. Aus Anbietersicht geht es natürlich darum, die Tools möglichst einfach in der Bedienung zu gestalten und einen schnellen Zugang zum benötigten Datenmaterial zu bieten. Aber „möglichst einfach“ und „möglichst schnell“ sind dehnbare Begriffe bei Datenanalysen und stehen immer im Verhältnis zur Komplexität des zugrundeliegenden Erkenntnisinteresses.

IT-DIRECTOR: Wie lassen sich aus den durch Big-Data-Analysen ermittelten Mustern und Zusammenhängen konkrete Erkenntnisse ziehen? Und im nächsten Schritt gar konkrete Handlungsempfehlungen ableiten?
C. Hein:
Aus den reinen Ergebnissen lassen sich nicht ohne weiteres Handlungsempfehlungen generieren. Zuerst müssen die Ergebnisse einer weitergehenden Analyse unterworfen werden. Vielmehr kommt es auf die vorab entwickelte Fragestellung/Hypothese an und wie die Analyse-Ergebnisse diese Fragestellung bestätigen oder widerlegen. Aber die Analyse an sich kann nie eine direkte Handlungsempfehlung sein.

IT-DIRECTOR: Ein Bereich von Data Science umfasst Methoden wie Machine Learning oder Deep Learning. Was genau verbirgt sich dahinter?
C. Hein:
Um Methoden bei der Datenanalyse weiter zu optimieren und zu automatisieren werden künstliche Systeme eingesetzt, die aus einem Beispiel-Set an Daten im Stande sind Muster zu extrahieren und zu abstrahieren – also versuchen, aus konkreten Beispielen allgemeingültige Modelle abzuleiten und diese auf unbekannte Daten-Sets wieder anzuwenden. Wichtig ist dabei zu verstehen, dass dies nicht ein bloßes Abgleichen von bekannten Mustern ist – also ein Auswendiglernen von Gegebenheiten – , sondern eine Transferleistung darstellt. Die Erstellung des Modells ist der Kern von Machine Learning.

IT-DIRECTOR: Inwieweit braucht man in Zeiten von künstlicher Intelligenz und selbstlernenden Algorithmen den Menschen überhaupt noch?
C. Hein:
Letztlich besteht bei allen Arten von künstlicher Intelligenz die Gefahr der Überanpassung. Von Überanpassung wird dann gesprochen, wenn das System an der Ableitung des allgemeingültigen Modells scheitert. Dies kann mit Ausnahmen zu tun haben, die in den ursprünglichen Daten-Sets nicht enthalten waren oder weil sich Rahmenbedingungen aufgrund externer Faktoren (wie beispielsweise durch die Gesetzgebung) verändern. In der Regel wird einem das System aber nicht sagen, dass es an der Ableitung des Modells gescheitert ist. Sondern es wird mit seiner Aufgabe einfach weitermachen. Hier ist es am Menschen, zu erkennen, ob das Modell im Einzelfall Sinn macht oder nicht. Bei der Aufklärung von Kreditkartenbetrug ist es meist so, dass das System Alerts absetzt, die dann von Menschenhand verifiziert werden.

IT-DIRECTOR: Warum sind „intelligente, selbstlernende Maschinen“ den Menschen überlegen – wie häufig in der IT-Branche kolportiert wird?
C. Hein:
Der Erfolg von Alpha Go von Google hat mit Sicherheit ein Ausrufezeichen gesetzt. Aber die Anspielungen auf die Überlegenheit von künstlichen neuronalen Netzwerken sind nach wie vor Science Fiction. Das uns jedoch künstliche Systeme vor allem bei der Verarbeitung von Massendaten überlegen sind, das sollte niemand ernsthaft mehr bezweifeln. Das ist jedoch nur eine Art von Intelligenz. Darüber hinaus bestehen noch mindestens acht weitere Arten von Intelligenz, die in dieser Diskussion bisher völlig außen vor gelassen wurden.

IT-DIRECTOR: Welche Gefahren und Risiken setzt man sich aus, wenn man selbstlernenden Algorithmen blindlings vertraut? Können Sie ein Beispiel nennen?
C. Hein:
Man stelle sich folgende Situation vor: Ein selbstfahrendes Auto erkennt eine Gefahrensituation. Auf der Straße spielen drei Kinder und das Auto hat zwei Möglichkeiten zu reagieren. Entweder überfährt es die Kinder oder es setzt das Auto gegen einen Baum und tötet den Fahrer. Rein logisch betrachtet, müsste das Auto gegen den Baum fahren und den Fahrer töten; ein einzelnes Leben gegen drei. Klarer Fall. Doch ich bezweifle, dass jemand so ein Auto kaufen würde. Natürlich ist dieses Beispiel eine bewusste Zuspitzung, aber es wird daran sehr gut deutlich, wann selbstlernende Algorithmen an ihre Grenzen stoßen und Menschen ihnen nicht mehr blind vertrauen sollten.


©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok