Big-Data-Analysen und ihre Grenzen

Algorithmen nie blindlings vertrauen

Bei der Arbeit mit Big-Data-Analysen sollte der gesunde Menschenverstand nie ausgeschaltet werden. Denn laut Gregor Zeiler von Trivadis können die Risiken erheblich sein, wenn man Algorithmen blindlings vertraut.

Gregor Zeiler, Trivadis

Gregor Zeiler, Senior Solution Manager BI/Big Data bei Trivadis

IT-DIRECTOR: Herr Zeiler, glaubt man den Marketing-Aussagen der Software-Anbieter, reicht allein die Anschaffung von Big-Data-Tools aus, um Unternehmen mittels vorausschauender Analysen auf die Erfolgsspur zu bringen. Inwieweit ist eine solche Einschätzung realistisch oder doch viel zu kurz gegriffen?
G. Zeiler:
Selbst das beste Werkzeug hilft ohne einen erfahrenen Handwerker und ein Werkstück mit hoher Qualität nicht viel weiter. Dies trifft im übertragenen Sinn natürlich auch auf Big-Data-Tools zu. Das große Wunder geschieht auch nach Anschaffung einer neuen Big-Data-Software nicht ohne die erforderlichen Begleitmaßnahmen.

IT-DIRECTOR: An welchen Stellschrauben müssen die Verantwortlichen tatsächlich drehen, damit der Einsatz von Big-Data-Analyse-Software das Unternehmen entscheidend voranbringen kann?
G. Zeiler:
Das Wichtigste ist sicher, eine Vorstellung davon zu haben, an welchem Punkt man aus fachlicher Sicht mit den Analysen ansetzten möchte. Dies bildet dann die Grundlage, welche Datenquellen man anzapfen muss. Die Integration der erforderlichen Daten, die Herstellung der Datenqualität, der Umgang mit den Analysetools und das fachliche und analytische/statistische Know-how sind das Pflichtprogramm. Die Kür stellt dann das virtuose Spiel am Klavier der Analyse-Tools dar. Dort spielt die Musik!

IT-DIRECTOR: Generell sind Analysen bzw. deren Ergebnisse immer nur so gut wie die Algorithmen, die ihnen zugrunde liegen. Wer in den Anwenderunternehmen sollte die Erstellung von Algorithmen übernehmen?
G. Zeiler:
Pauschalaussagen dazu gibt es nicht. Entscheidend ist das verfügbare Skill-Setting, in diesem Fall hervorragendes fachliches Verständnis der Daten, aber auch tiefes technisches und mathematisches Know-how für die Definition und Justierung der Algorithmen. Wesentlich dabei ist der Mix aus Business- und technischen Fachkenntnissen. Die Personen können aus den Fachbereichen, dem BI Competence Center oder der IT kommen. Die personellen Möglichkeiten sind in jedem Anwenderunternehmen individuell zu bewerten. In der Regel eignen sich jedoch Spezialisten aus den Fachbereichen die zusätzlich erforderlichen technischen Fähigkeiten an und engagieren sich in dieser Sache.

IT-DIRECTOR: Inwieweit kann dabei sichergestellt werden, dass Fachabteilungen eigene Big-Data-Analysen erstellen können, ohne auf das Fachwissen spezieller „Data Scientists“ angewiesen zu sein?
G. Zeiler:
Ich denke, man darf das nicht schwarzweiß sehen. Nicht jede Big-Data-Analyse basiert auf hochkomplexen Algorithmen. Viele Analysen in diesem Bereich sind zwar nicht ganz trivial, aber durchaus von gut geschulten Mitarbeitern aus den Fachbereichen durchführbar – entsprechendes Datenverständnis vorausgesetzt. Das Modellieren und Justieren – sprich das Einlernen – von komplexen Algorithmen ist meistens eine Angelegenheit von einer kleinen Gruppe von Spezialisten. Das bedeutet aber, dass große Teile der täglichen Analysearbeit von einer breiteren Gruppe – den sogenannten Citizen Data Scientists – bewältigt werden kann.

IT-DIRECTOR: Wie lassen sich aus den durch Big-Data-Analysen ermittelten Mustern und Zusammenhängen konkrete Erkenntnisse ziehen? Und im nächsten Schritt gar konkrete Handlungsempfehlungen ableiten?
G. Zeiler:
Dies ist am besten mit einem Beispiel erklärt. Nehmen wir einmal an, wir möchten in wichtigen Teilen unserer Produktionsanlage eine vorrausschauende Instandhaltung betreiben, damit der aufwendige Maschinenpark nicht durch ungeplante Stillstandzeiten ineffizient wird. Der erste Schritt besteht nun darin, zu analysieren und zu lernen, aufgrund welcher Einflussfaktoren ein Maschinenteil ausfällt oder das Ende seiner Lebenszeit erreicht. Auf Basis dieser Erkenntnisse kann ein Modell eines Algorithmus entwickelt werden, das in der Lage ist, den optimalen Ersatzzeitpunkt des Teils zu prognostizieren. An Sample-Daten wird der Algorithmus eingelernt und validiert. Ist man mit der Prognosequalität zufrieden, kann der Algorithmus in den Prozess eingebunden werden und auf Basis der Echtdaten aus der Anlage die Handlungsempfehlung zu einem bevorstehenden Ersatzzeitpunkt abgeben.

IT-DIRECTOR: Ein Bereich von Data Science umfasst Methoden wie Machine Learning oder Deep Learning. Was genau verbirgt sich dahinter?
G. Zeiler:
Ja, das klingt sehr wissenschaftlich − ist es auch. Im Wesentlichen geht es darum − wie eben erläutert − einen Entscheidungsalgorithmus zu modellieren und so anzulernen, damit er die „Wirklichkeit“ bestmöglich abbildet. Genau das ist auch die große Herausforderung dabei. Greift das Modell aufgrund seiner Einflussfaktoren zu kurz, ist es sehr wahrscheinlich, dass es zu Fehlinterpretationen kommt. Machine Learning und Deep Learning verfolgen den Ansatz, möglichst viele dieser Einflussfaktoren in einem umfänglichen Modell einzufangen und bedienen sich vieler statistischer und neuronaler Ansätze, um diesem Anspruch gerecht zu werden. Die Methoden und Ansätze sind da sehr vielfältig und umfassen auch Bild- und Spracherkennungsfunktionen.

IT-DIRECTOR: Inwieweit braucht man in Zeiten von künstlicher Intelligenz und selbstlernenden Algorithmen den Menschen überhaupt noch?
G. Zeiler:
Naja, irgendjemand muss doch die vielen intelligenten Maschinen nach Feierabend wieder ausschalten. Wer, wenn nicht der Mensch, könnte das tun? Spaß beiseite − das ist eigentlich eine sehr ernste Angelegenheit. Die Ängste, dass durch die zunehmende Digitalisierung von Prozessen die direkte menschliche Arbeitskraft weiter obsolet wird, sind sicher berechtigt. Mit jeder industriellen Revolution ist ein Stück dieser Arbeitskraft mechanisiert, automatisiert und damit ersetzt worden. Da trägt auch Industrie 4.0 ein weiteres Stück dazu bei.

Im Big-Data-Umfeld kommt aber noch ein Aspekt dazu. Viele dieser tiefgreifenden Analysen sind zuvor einfach aus Mangel an analytischen Möglichkeiten nicht erfolgt. Das heißt, es tut sich hier ein neues Tätigkeitsfeld auf, das es ermöglicht, neue Potentiale zu erschließen, die mit konventionellen analytischen Methoden verborgen geblieben wären. Auch Wachstum und damit eine Absicherung des Arbeitsplatzes kann damit bewirkt werden.

IT-DIRECTOR: Warum sind „intelligente, selbstlernende Maschinen“ den Menschen überlegen – wie häufig in der IT-Branche kolportiert wird?
G. Zeiler:
Bei all diesen Anwendungsfällen geht es darum, große Datenströme zur Laufzeit – also online – zu analysieren und daraus Erkenntnisse zu ziehen – die dann in einer resultierenden Handlung münden. Als einfaches Beispiel greife ich da gerne auf die mittlerweile in jedem KFZ verfügbaren Funktionen ABS und ESB zurück. Der Mensch merkt erst aufgrund des schon schleudernden Fahrzeugs, dass er sich in der Bremskraft verkalkuliert hat und hat alle Hände voll zu tun das KFZ kontrolliert gelenkt und gebremst zum Stillstand zu bringen. Die intelligente Maschine kann viel feinfühliger und rascher bereits ein blockierendes Rad erkennen, bevor das KFZ schleudert, oder ein bereits schleuderndes KFZ durch gezieltes Abbremsen einzelner Räder wieder in einen kontrollierten Zustand bringen.

Es geht also um die Fähigkeit, binnen sehr kurzer Zeit entsprechende Entscheidungen zu Handlungen aus einer großen Menge an Basisinformationen zu ziehen. In diesem Bereich sind uns intelligente Maschinen überlegen. Wer würde heute noch gerne auf ABS und ESB im eigenen KFZ verzichten wollen.

IT-DIRECTOR: Welche Gefahren und Risiken setzt man sich aus, wenn man selbstlernenden Algorithmen blindlings vertraut? Können Sie ein Beispiel nennen?
G. Zeiler:
Der gesunde Menschenverstand sollte nie ausgeschaltet oder ersetzt werden. Risiken und Gefahren können erheblich sein, wenn man Algorithmen blindlings vertraut. Auch hier gibt es genug Beispiele mit Navigationsgeräten, denen blind gehorcht wurde, zum Beispiel, wenn es zum Umkehren auf der Autobahn aufruft. Algorithmen funktionieren in der Regel im gelernten und bekannten Parameterbereich sehr gut. Probleme entstehen, wenn neue unbekannte Abhängigkeiten oder extreme Wertebereiche ins Spiel kommen. Abhängig vom betroffenen Prozess ist dann manchmal „nur“ ein Kunde verärgert, wenn er eine unpassende Kaufempfehlung vom Algorithmus bekommt, es gibt aber auch Fälle, wo Leib und Leben bedroht sind, wenn in einer maschinellen Anlage etwas schief läuft.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok