Big Data in den Fachbereichen

Analyse-Tools für alle

Intelligente Analyse-Tools für Big Data müssen dorthin, wo sie tatsächlich gebraucht werden – und dies ist in aller Regel in den jeweiligen Fachbereichen der Fall, so Frank Theisen von IBM Analytics.

Frank Theisen, IBM Analytics

Frank Theisen, Vice President IBM Analytics in Deutschland, Österreich, Schweiz

IT-DIRECTOR: Herr Theisen, glaubt man den Marketing-Aussagen der Software-Anbieter, reicht allein die Anschaffung von Big-Data-Tools aus, um Unternehmen mittels vorausschauender Analysen auf die Erfolgsspur zu bringen. Inwieweit ist eine solche Einschätzung realistisch oder doch viel zu kurz gegriffen?
F. Theisen:
Big-Data-Tools und die damit möglichen Analysen können nur so gut sein, wie die Qualität, Auswahl und Quantität der Daten, die ihnen zur Verfügung stehen. Dafür ist es erstens notwendig, die geeigneten technischen Voraussetzungen zu schaffen, damit die Daten aus den Maschinen sowie anderen relevanten Systemen überhaupt extrahiert werden können. Das Stichwort dafür lautet, die Etablierung von vertikaler und horizontaler Datenintegration über Maschinen, Prozesse und Systeme hinweg. Zweitens ist es meist sinnvoll, diese Daten in einer Zeitreihendatenbank, einem sogenannten „Data Historian“ zu sammeln, denn vorausschauende Analysen beruhen vielfach auf der Bewertung von großen, historischen Datenmengen. Ihre zugrundeliegenden mathematischen und analytischen Modelle lernen so aus der Vergangenheit. Neben den Analyse-Tools sind daher auch Werkzeuge für die Datenhaltung sowie das Datenqualitätsmanagement einschließlich der Etablierung der dafür notwendigen Prozesse elementar wichtig.

IT-DIRECTOR: An welchen Stellschrauben müssen die Verantwortlichen tatsächlich drehen, damit der Einsatz von Big-Data-Analyse-Software das Unternehmen entscheidend voranbringen kann?
F. Theisen:
Intelligente Analyse-Tools müssen dorthin, wo sie tatsächlich gebraucht werden – und das ist in aller Regel in den jeweiligen Fachbereichen. Dafür müssen in vielen Unternehmen die IT-Strukturen entsprechend angepasst werden – infrage kommen beispielsweise cloud-basierte Plattformlösungen, mit denen Fachbereiche in die Lage versetzt werden, sehr agil auf die verfügbaren Analytics-Tools zuzugreifen, um ihre individuellen Fragenstellungen möglichst zeitnah beantworten zu können.

IT-DIRECTOR: Generell sind Analysen bzw. deren Ergebnisse immer nur so gut wie die Algorithmen, die ihnen zugrunde liegen. Wer in den Anwenderunternehmen sollte die Erstellung von Algorithmen übernehmen?
F. Theisen:
Das kommt auf das einzelne Unternehmen an und hängt von dessen Kultur und Organisationsform ab. Wir beobachten in immer mehr Unternehmen, dass der Trend dahin geht, fachbereichsorientierte Data Scientists einzusetzen, die entweder zentral in einem Data Lab arbeiten oder aber direkt den Fachbereichen zugeordnet sind. Sie beherrschen die Erstellung von Algorithmen und die zugrundeliegenden Technologien, etwa mathematische Modelle und bestimmte Script-Sprachen. Damit sind sie selbstständig in der Lage, für spezifische Fragestellungen sowohl eigene Analyseprototypen zu entwickeln als auch gezielte analytische Auswertungen vorzunehmen. Und natürlich brauchen auch die IT- und Business-Intelligence-Abteilungen weiterhin gut ausgebildete Analysten und Data Scientists, allerdings mit einem etwas stärkeren Fokus auf den Themen Sicherheit, Performance und Datenqualität.

IT-DIRECTOR: Inwieweit kann dabei sichergestellt werden, dass Fachabteilungen eigene Big-Data-Analysen erstellen können, ohne auf das Fachwissen spezieller „Data Scientists“ angewiesen zu sein?
F. Theisen:
Ein wichtiger Punkt, denn es ist natürlich auch nicht immer möglich, für jede Fragestellung spezifisch ausgebildete Data Scientists vorzuhalten. Wir bieten hierfür mit der "Analytics Sandbox" eine cloud-basierte Lösung für agile Analysen, die von den Verantwortlichen aus den Fachbereichen selbständig per Self Service in die Sandbox geladen werden können. Entsprechende Service Level Aggreements, die sowohl die Bereitstellung wie auch die Abrechnung „per use“ umfassen, erlauben es ihnen dann, vollkommen autonom und unabhängig von ihrer IT-Abteilung, individuelle Analysen durchzuführen – lediglich der Zugriff auf die benötigten Daten muss vorhanden sein.

IT-DIRECTOR: Wie lassen sich aus den durch Big-Data-Analysen ermittelten Mustern und Zusammenhängen konkrete Erkenntnisse ziehen? Und im nächsten Schritt gar konkrete Handlungsempfehlungen ableiten?
F. Theisen:
Das ist von Fall zu Fall unterschiedlich. Zudem ist die fachliche Bewertung sehr industriespezifisch. Sie erfordert Expertise, Erfahrung und fundiertes Branchenwissen. Genau aus diesem Grund bieten wir unseren Kunden die Unterstützung durch unsere Cognitive Solution Teams (CST), die in den jeweiligen Branchen zu Hause sind und auf der Basis dieser Expertise gemeinsam mit den Kunden individuell diejenigen Big-Data-Lösungen identifizieren, die im Einzelfall den höchsten Nutzen für das Unternehmen oder die konkrete Fragestellung bringen. In einem Produktionsprozess etwa müssen dafür zunächst diejenigen Prozessparameter identifiziert werden, die maßgeblich über die Qualität des Endprodukts entscheiden. Diese Parameter können nur von sehr erfahrenen Spezialisten interpretiert werden. Auch nur sie können entscheiden, welche dieser Messgrößen oder Parameter für die Analyse durch eine geeignete Software tatsächlich relevant sind und welche Handlungsempfehlungen sich daraus ergeben.

IT-DIRECTOR: Ein Bereich von Data Science umfasst Methoden wie Machine Learning oder Deep Learning. Was genau verbirgt sich dahinter?
F. Theisen:
Machine Learning, mit dem beispielsweise unser kognitives System Watson arbeitet, basiert auf dem individuellen Training des Systems, um ihm Wissen oder bestimmte Verhaltensweisen zu vermitteln. Um das mal an einem Beispiel zu illustrieren: Watson wurde für einen großen deutschen Versicherer darauf trainiert, schriftlich geäußerte Kundenbeschwerden zu erkennen und richtig einzuordnen. Dafür musste das kognitive System eine gewisse Anzahl von Schreiben mit Hilfe seiner Trainer – Versicherungsangestellte und Sprachwissenschaftler – analysieren und richtig bewerten. Watson wurde dabei darauf konditioniert, die Sätze in den Schreiben in festgelegten Kategorien einzuordnen. Diese erkennt er jetzt mit einer fast hundertprozentigen Trefferquote und schickt die Schreiben automatisch an den richtigen Sachbearbeiter weiter.

IT-DIRECTOR: Inwieweit braucht man in Zeiten von künstlicher Intelligenz und selbstlernenden Algorithmen den Menschen überhaupt noch?
F. Theisen:
KI und kognitive Systeme sollen und werden den Menschen nicht ersetzen. Wir wollen und brauchen kein technisches Abbild des Menschen, sondern praktische Hilfestellung, um Leben zu retten, Krankheiten zu behandeln, bessere Produkte zu entwickeln oder die Wirtschaftlichkeit und Produktivität in den Unternehmen zu erhöhen. Diese Technologien sollen vor allem den Menschen entlasten und Hilfestellung bei seiner täglichen Arbeit geben. Hinzu kommt ein weiterer Aspekt: Der Wealth Advisor von Watson beispielsweise kann auch Bankkunden mit kleinerem Anlagevermögen sehr gut beraten, und übernimmt damit eine Aufgabe, die sich für den klassischen Vermögenberater einer Bank gar nicht mehr rechnen würden. Entscheidend bei allen Aufgaben ist dabei die massenhafte und schnelle Verarbeitung und Auswertung von Daten, egal aus welchen Quellen sie kommen – ob strukturiert oder unstrukturiert in Form von Texten, Sprache, Bildern oder Videos.

IT-DIRECTOR: Warum sind „intelligente, selbstlernende Maschinen“ den Menschen überlegen – wie häufig in der IT-Branche kolportiert wird?
F. Theisen:
Lernende Maschinen sind den Menschen nicht überlegen – sie verfügen allenfalls über Inselbegabungen, die sie in bestimmten Bereichen besonders stark machen. Oder anders ausgedrückt: Sie können bestimmte Aufgaben außergewöhnlich schnell und präzise lösen – wenn sie die richtigen Daten zur Verfügung haben und entsprechend trainiert wurden – aber sind gänzlich ungeeignet für andere Aufgaben, wenn ihnen der richtige Kontext und die Übung fehlen. In jedem Fall ist es aber ihre schiere Rechenkraft, mit der solche Systeme ein Vielfaches an Informationen auswerten können, die es ihnen möglich macht, einzelne Inselbegabungen nahezu perfekt auszubilden.

IT-DIRECTOR: Welche Gefahren und Risiken setzt man sich aus, wenn man selbstlernenden Algorithmen blindlings vertraut? Können Sie ein Beispiel nennen?
F. Theisen:
Wie erwähnt, sehen wir in kognitiven Systemen Technologien, die Menschen bei der Entscheidungsfindung unterstützen sollen. Die letzte Entscheidungsinstanz sollte daher auch immer der Mensch sein. Hierfür ist hier die Nachvollziehbarkeit von Ergebnissen von elementarer Bedeutung. Nahezu alle lernenden oder smarten Systeme, die heute verfügbar sind, erklären nicht, wie sie zu ihren Ergebnissen und Antworten kommen. Watson bildet hier die große Ausnahme. Er bietet die Möglichkeit, die Quellen einzusehen, die er genutzt hat, um eine spezifische Aufgabe oder Fragestellung zu lösen. Damit ist für den Nutzer jederzeit nachvollziehbar, wie ein bestimmtes Ergebnis zu Stande gekommen ist. Eine in unseren Augen sehr wichtige Eigenschaft, um die Qualität und Glaubwürdigkeit der Antworten überprüfbar und nachvollziehbar zu machen.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok