An den richtigen Schrauben drehen

Big-Data-Tools allein reichen nicht aus

Die Implementierung von Tools für Big-Data-Analysen oder Machine Learning allein reicht nicht aus, um nutzbringende Erkenntnisse für das eigene Geschäftsmodell zu gewinnen. Zunächst muss die Datenqualität stimmen.

Schraubenzieher

Um Big-Data-Tools im Geschäftsalltag gewinnbringend nutzen zu können, müssen gewisse Hausaufgaben erledigt werden.

Mit der Anschaffung und Installation von Big-Data-Analyse-Software allein ist es selten getan. Um die Tools im Geschäftsalltag gewinnbringend nutzen zu können, müssen zuvor bestimmte Hausaufgaben gemacht werden. „Selbst das beste Werkzeug hilft ohne einen erfahrenen Handwerker und ein Werkstück mit hoher Qualität nicht viel, was auch auf Big-Data-Tools zutrifft. Das große Wunder geschieht auch nach Anschaffung einer neuen Big-Data-Software nicht ohne die erforderlichen Begleitmaßnahmen“, bestätigt Gregor Zeiler, Solution Manager BI/Big Data bei Trivadis. Eine Einschätzung, die Dr. Michael Allgöwer, Leiter Competence Center Data Science bei B.telligent, unterstützt: „Ihr revolutionäres Potential kann Big-Data-Software nur in den Händen kreativer Menschen entfalten, deren Horizont über das rein Technische hinausreicht. Diese Revolution ist mit viel Arbeit verbunden“, betont Allgöwer.

Die Verantwortlichen stehen damit jedoch vor der Frage, an welchen Stellschrauben sie drehen sollten, um die Projekte erfolgreich voranzutreiben. Michael Allgöwer führt grundlegend an, dass zur Datenanalyse erst einmal Datenn vorhanden sein sollten. Dies mag banal klingen, stellt aber in vielen Unternehmen ein Haupthindernis dar, da sie ihre Daten weder systematisch sammeln noch aufbereiten.

Doch selbst wenn Firmen ausreichend Daten gesammelt haben, wird Big Data nicht zum Selbstläufer. Denn einerseits muss auch die Qualität der Daten stimmen und andererseits ist in vielen Unternehmen ein Paradigmenwechsel nötig, um die richtige Kultur zu etablieren, Verantwortlichkeiten und Prozesse festzulegen. „Dies bedeutet etwa, dass die IT-Abteilung den Fachabteilungen den Zugriff auf die Daten gewährt, die deren Fragen beantworten können, anstatt zu versuchen, selbst auf die Antworten zu kommen“, erklärt Tom Becker, Director DACH bei Alteryx. Ebenfalls wichtig sei die offizielle Festlegung, was als Erfolg angesehen wird. Dabei müssen Unternehmen laut Becker KPIs definieren, um festzustellen, ob Analytics erfolgreich ablaufen.

Weitere Stellschrauben für den Erfolg von Big-Data-Analysen erkennt Prof. Dr. Michael Feindt, Gründer und Chief Scientific Advisor bei Blue Yonder. Seiner Ansicht nach bilden die Tools allein die Voraussetzung, um überhaupt die richtigen Fragen stellen und Ergebnisse richtig interpretieren zu können. Im nächsten Schritt benötigt jedes Tool entsprechende Experten, die sie sinnvoll bedienen. „Bestenfalls handelt es sich um Data Scientists mit mathematisch-statistischer Ausbildung und guten Programmierkenntnissen, starken analytischen Fähigkeiten und gleichzeitig tiefem Branchenwissen“, beschreibt Feindt das Anforderungsprofil. Dabei sollten gute Data Scientists keine „Daten-Fachidioten“ sein, sondern sich laut Michael Allgöwer vielmehr ein tiefes Verständnis der geschäftlichen Zusammenhänge erarbeiten. Zudem gehört Geduld zu ihren wichtigen Wesensmerkmalen. „Denn nicht selten müssen Big-Data-Analysen solange wiederholt werden, bis die ‚richtigen‘ Fakten zum Vorschein kommen – man muss einige Schichten unverwertbaren Materials abtragen, bevor man an den nützlichen Teil kommt“, ergänzt Tom Becker.

Für Christoph Hein, Geschäftsführer bei Tablonautix, ist bei Großunternehmen und Konzernen durchaus eine Task Force – ähnlich eines Business Intelligence Competency Center (BICC) – vorstellbar. Darunter versteht man ein interdisziplinäres Team aus Mitarbeitern aus der IT, den einzelnen Fachabteilungen sowie aus Projektmanagern, Beratern und Analysten. „Generell sind wir der Überzeugung, dass sich hinter dem Begriff des ‚Data Scientist‘ ein interdisziplinäres Expertenteam und keine Einzelperson verbirgt“, so Hein weiter.

Egal ob Team oder Einzelkämpfer: Da professionelle Data Scientists in der Praxis eher rar gesät sind, kann man das erforderliche Know-how entweder von externen Big-Data-Dienstleistern beziehen oder internes Wissen rund um Big-Data-Analysen aufbauen. Spätestens an diesem Punkt tritt die Fachabteilung, die die Analysen realisieren möchte, auf den Plan. So beobachtet Frank Theisen, Vice President IBM Analytics Deutschland, in immer mehr Unternehmen den Trend, fachbereichsorientierte Data Scientists einzusetzen, die entweder zentral in einem Data Lab arbeiten oder aber direkt den Fachbereichen zugeordnet sind. Sie beherrschen die Erstellung von Algorithmen und die zugrundeliegenden Technologien, etwa mathematische Modelle und bestimmte Script-Sprachen. Damit seien sie in der Lage, für spezifische Fragestellungen sowohl eigene Analyseprototypen zu entwickeln als auch gezielte analytische Auswertungen vorzunehmen. Daneben bräuchten laut Theisen jedoch auch die IT- und BI-Abteilungen weiterhin gut ausgebildete Analysten und Data Scientists – allerdings mit stärkerem Fokus auf die Themen Sicherheit, Performance und Datenqualität.

Was bringt Machine Learning?


Während sich so manches Unternehmen gerade erst näher mit dem Thema „Big Data“ beschäftigt, wird in Fach- und Herstellerkreisen bereits die nächste Sau durchs Dorf getrieben – nämlich Machine Learning. „Dahinter steckt eine Methode, bei der Computer permanent Daten analysieren, aus vergangenen Ereignissen lernen und Entscheidungsunterstützung für bestimmte Fragestellungen liefern“, erläutert Michael Feindt. Anders ausgedrückt bedeutet dies, dass ­Machine Learning auf dem individuellen Training von Systemen basiert, um ihnen Wissen oder bestimmte Verhaltensweisen zu vermitteln. Frank Theisen skizziert dies am kognitiven IBM-System Watson: Dieses wurde für einen großen deutschen Versicherer darauf trainiert, schriftlich geäußerte Kundenbeschwerden zu erkennen und richtig einzuordnen. Dafür musste das System eine gewisse Anzahl von Schreiben mithilfe seiner Trainer – Versicherungsangestellte und Sprachwissenschaftler – analysieren und bewerten. „Watson wurde dabei darauf konditioniert, die Sätze in den Schreiben in festgelegten Kategorien einzuordnen. Diese erkennt er mittlerweile mit einer fast hundertprozentigen Trefferquote und schickt die Schreiben automatisch an die richtigen Sachbearbeiter weiter“, berichtet Theisen.

Dies ist ein Artikel aus unserer Print-Ausgabe 05/2016. Bestellen Sie ein kostenfreies Probe-Abo.

Auf ein weiteres Machine-Learning-Projekt verweist Michael Allgöwer. Dabei hatte Microsoft erst kürzlich eine künstliche Intelligenz namens Tay ins Netz gestellt, mit der man in normaler Sprache Small Talk betreiben kann, und die nebenbei lernen sollte, menschliches Gesprächsverhalten nachzuahmen. Allerdings hat der Hersteller nicht damit gerechnet, dass sich die Leute einen Spaß daraus machen würden, die künstliche Intelligenz im Gespräch mit extrem sexistischen und rassistischen Äußerungen zu füttern. „Die künstliche Intelligenz hat das prima gelernt und fleißig nachgeplappert. Am Ende wurde es Microsoft zu bunt und Tay wurde vom Netz genommen“, beschreibt Allgöwer das wenig ruhmreiche Ende des Vorhabens.

Weitere Beispiele führt Michael Feindt an. „So gibt es im Handel, auf den wir uns mit unseren cloud-basierten Predictive Applications konzentrieren, viele Tätigkeiten, die für künstliche Intelligenz prädestiniert sind“, berichtet Feindt. Vor allem täglich und routinemäßig anfallende operative Entscheidungen. Machine-Learning-Algorithmen können diese Entscheidungen auf Basis historischer Daten und zusätzlicher externer Faktoren besser und automatisiert treffen. Laut Feindt profitieren davon vor allem Bereiche wie Logistik, Disposition und Marketing. „Diese Entscheidungshilfen sind dem Bauchgefühl weit überlegen, da sie jede Einzelentscheidung genau berechnen. Gerade bei der Preisoptimierung spielen diese Anwendungen eine wichtige Rolle, da für jedes Produkt entsprechend der Nachfrage die individuelle Preiselastizität bestimmt werden kann“, spricht Feindt das immer häufig genutzte Dynamic Pricing an.

Wo bleibt der Mensch?


Kommt es damit bald zur Herrschaft der Maschinen? Ängste, die direkte menschliche Arbeitskraft werde durch die zunehmende Digitalisierung von Prozessen weiter obsolet, hält Gregor Zeiler für durchaus berechtigt. Denn bislang wurde mit jeder industriellen Revolution ein Stück Arbeitskraft mechanisiert, automatisiert und damit ersetzt. Gleichzeitig räumt er ein, dass im Big-Data-Umfeld ein durchaus „menschlicher“ Aspekt hinzukommt. Denn viele tiefgreifende Analysen sind zuvor einfach aus Mangel an analytischen Möglichkeiten nicht erfolgt. „Es tut sich hier ein neues Tätigkeitsfeld auf, um neue Potentiale zu erschließen, die mit konventionellen analytischen Methoden verborgen geblieben wären“, so Zeiler. Dies könne durchaus für Wachstum sorgen und damit eine Absicherung von Arbeitsplätzen bewirken.

Bereits heute sollte man sich jedoch fragen, inwieweit die aus Big-Data-Analysen oder per Machine Learning ermittelten Ergebnisse ungefragt übernommen werden sollten. „Wir raten dringend davon ab, Algorithmen blindlings zu vertrauen. Denn jeder Lernprozess ist mit Irrungen und Wirrungen verbunden – bei Menschen und Maschinen“, mahnt Michael Feindt. Algorithmen unterstützen menschliche Entscheidungen und ersetzen sie bei Routinetätigkeiten – nicht mehr und nicht weniger. Es entstünden gar gefährliche Situationen, käme die finale Entscheidung nicht von Menschen. Denn laut Matthias Maier von Splunk können Datenquellen manipuliert werden, was wiederum zu falschen automatisierten Handlungen führen könnte. Spätestens hier ist menschliches Eingreifen erforderlich.

Die Dramatik, die mit „falschen“ Analyseergebnissen hervorrufen kann, skizziert Gregor Zeiler: Algorithmen funktionieren in der Regel im gelernten und bekannten Parameterbereich sehr gut. Allerdings entstünden Probleme, wenn neue unbekannte Abhängigkeiten oder extreme Wertebereiche ins Spiel kommen. Abhängig vom betroffenen Prozess ist dann manchmal „nur“ ein Kunde verärgert, wenn er eine unpassende Kaufempfehlung vom Algorithmus bekommt, „es gibt aber auch Fälle, wo Leib und Leben bedroht sind, wenn in einer maschinellen Anlage oder in einem selbstfahrenden Fahrzeug etwas schief läuft“, so Zeiler.

Ein Beispiel, das ethisch-moralische Fragen aufwirft, nennt Christoph Hein: Ein selbstfahrendes Auto erkennt eine Gefahrensituation. Auf der Straße spielen drei Kinder und das Auto hat zwei Möglichkeiten zu reagieren. Entweder überfährt es die Kinder oder es setzt das Auto gegen einen Baum und tötet den Fahrer. Rein logisch betrachtet, müsste das Auto gegen den Baum fahren und den Fahrer töten; ein einzelnes Leben gegen drei. „Ein klarer Fall. Doch ich würde bezweifeln, dass jemand solch ein Auto kaufen würde“, betont Hein. Natürlich sei das Beispiel eine bewusste Zuspitzung, dennoch zeige es sehr gut, wann selbstlernende Algorithmen an ihre Grenzen stoßen.


Analytik-Tools in der Praxis

Für die Verantwortlichen muss klar sein, welche Ziele mit dem Einsatz von Big-Data-Tools verfolgt werden sollen. Sie sollten einen strategischen Plan entwickeln, der neben den fachlichen und technologischen Aspekten auch folgende Kernfragen beantworten sollte:

  • Welche Abteilungen sollen angeschlossen werden?
  • Wer ist innerhalb des Unternehmens für den Betrieb zuständig?
  • Wer ist für die Weiterentwicklung verantwortlich?
  • Wie lassen sich die Tools in die bestehende IT-Infrastruktur integrieren?

Quelle: Christoph Hein, geschäftsführender Gesellschafter
bei der Tablonautix GmbH


Bildquelle: Thinkstock/moodboard

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok