Herr über Daten und Algorithmen

Künstliche Intelligenz braucht den Menschen

Für sich genommen sind Algorithmen alles andere als intelligent, betont Klaas Bollhoefer von The unbelievable Machine. Daher funktionieren Künstliche Intelligenz, Machine Learning, Deep Learning & Co. nur dank Data Scientists, den "Herren" über Daten und Algorithmen.

Klaas Bollhoefer, The unbelievable Machine

Klaas Bollhoefer, Chief Data Scientist von The unbelievable Machine Company in Berlin

IT-DIRECTOR: Herr Bollhoefer, glaubt man den Marketing-Aussagen der Software-Anbieter, reicht allein die Anschaffung von Big-Data-Tools aus, um Unternehmen mittels vorausschauender Analysen auf die Erfolgsspur zu bringen. Inwieweit ist eine solche Einschätzung realistisch oder doch viel zu kurz gegriffen?
K. Bollhoefer:
Fakt ist: Natürlich gibt es heutzutage eine Vielzahl an Werkzeugen und Technologien, die das Arbeiten mit und die Analyse von Daten jedweder Natur möglich machen. Quantitativ wie qualitativ hat sich in den letzten Jahren viel entwickelt, so dass für jeden Einsatzzweck passende Tools existieren. Fakt ist aber auch, dass ohne Erfahrung und Fähigkeiten in der Anwendung dieser Werkzeuge kein Blumentopf zu gewinnen ist, frei nach dem Motto „a fool with a tool is still a fool“. Expertenwissen gepaart mit State-of-the-art-Technologien bringt den Schub, den es braucht, um erfolgreich mit Daten und Algorithmen zu agieren.

IT-DIRECTOR: An welchen Stellschrauben müssen die Verantwortlichen tatsächlich drehen, damit der Einsatz von Big-Data-Analyse-Software das Unternehmen entscheidend voranbringen kann?
K. Bollhoefer:
Frei heraus und auf den Punkt: Skills, Culture & Leadership. Technologie und Algorithmen dienen für sich allein genommen, wenn überhaupt, dem Selbstzweck. Unternehmen müssen den Umgang mit Daten organisationsweit neu lernen – daher der Begriff „data-driven company“ –, was mehrheitlich einem grundlegenden Wandel in Prozessen, organisatorischem Setup und technologischen Daten- und IT-Infrastrukturen entspricht.

IT-DIRECTOR: Generell sind Analysen bzw. deren Ergebnisse immer nur so gut wie die Algorithmen, die ihnen zugrundeliegen. Wer in den Anwenderunternehmen sollte die Erstellung von Algorithmen übernehmen?
K. Bollhoefer:
Algorithmen sind für sich genommen nicht intelligent. Auch wenn es Künstliche Intelligenz heißt, wenn wir von Machine Learning & Co. reden, sind wir noch weit davon entfernt, dass Algorithmen autonom auf Daten agieren und gleichzeitig die „besten“ Ergebnisse produzieren bzw. direkt die „besten“ Entscheidungen fällen. „Beste“ ist per se relativ. Es braucht ein harmonisches Zusammenspiel aus menschlicher und künstlicher Intelligenz, um aus Daten unternehmensspezifischen Business Value zu generieren, in Form von Produkten, Prozessen oder gar neuen datenbasierten Geschäftsmodellen. Ergo sind es die Data Scientists und Data Engineers – die Datenexperten unserer Zeit –, die mit ihrer Erfahrung und ihrem Wissen über Daten, Algorithmen und Technologien aktuell ins Lead gehen.

IT-DIRECTOR: Inwieweit kann dabei sichergestellt werden, dass Fachabteilungen eigene Big-Data-Analysen erstellen können, ohne auf das Fachwissen spezieller „Data Scientists“ angewiesen zu sein?
K. Bollhoefer:
Der Begriff „sichergestellt“ ist an dieser Stelle kritisch, da es eine hundertprozentige Sicherheit in dem Sinne nicht geben kann und geben wird. Möglich ist, dass wir mithilfe von Datenvisualisierungen und neuen Human-Data-Interfaces den Zugang zu Daten, Analysen und deren Ergebnissen einfacher gestalten und damit auch in Richtung Fachabteilungen mehr und mehr Zugänge schaffen. Nichtsdestotrotz sind es in der Mehrheit komplexe entscheidungsstützende Systeme, die ein Grundverständnis für die konkreten Daten, deren Verarbeitung und die Möglichkeiten/Unmöglichkeiten, die aus Daten und Algorithmen resultieren, einfordern. Die Aufgabe des Anwenders/Entscheiders ist und bleibt die Interpretation der Ergebnisse und deren Überführung in geschäftsrelevante Aktionen. Dafür ist es zwingend erforderlich, zu lernen.

IT-DIRECTOR: Wie lassen sich aus den durch Big-Data-Analysen ermittelten Mustern und Zusammenhängen konkrete Erkenntnisse ziehen? Und im nächsten Schritt gar konkrete Handlungsempfehlungen ableiten?
K. Bollhoefer:
Einer Analyse liegt immer eine Fragestellung bzw. Hypothese zu Grunde. Dies gilt auch für Big Data. Freie Exploration bzw. die Anwendung einer Vielzahl von Algorithmen auf Daten liefert für sich genommen noch keinen Nutzen. Auch wenn mit Hilfe von Big Data und Data Science de facto auch Automatisierungslösungen realisiert werden können, ist es doch primär noch der Mensch, der die Resultate (Antworten) interpretieren muss und auf deren Basis Entscheidungen fällt.

IT-DIRECTOR: Ein Bereich von Data Science umfasst Methoden wie „Machine Learning“ oder „Deep Learning“. Was genau verbirgt sich dahinter?
K. Bollhoefer:
Machine Learning und Deep Learning stehen heute fast immer stellvertretend für nahezu alle Verfahren aus dem Themengebiet der künstlichen Intelligenz: neuronale Netze, Klassifikations- und Clusteringverfahren, Empfehlungslogiken oder auch Predictive Analytics. Im Kern sind es Verfahren, die in Daten Muster identifizieren und auf Basis dieser Muster Entscheidungen fällen. Viele dieser Verfahren erfordern ein so genanntes Modelltraining, um das Modell (quasi den Algorithmus) auf den geforderten Einsatzzweck hin zu optimieren. So wird bspw. ein Mail-Spamfilter im einfachsten Fall auf bekannten Spam- und No-Spam-Mails trainiert, um im Nachgang neue unbekannte Mails korrekt als Spam/No-Spam klassifizieren zu können. Deep Learning im Speziellen sind mehrschichtige neuronale Netzwerke – daher der Begriff „deep" –, die aktuell mehrheitlich im Bereich der Video-, Bild-, Sprach- und Textanalyse beeindruckende Ergebnisse erzielen.

IT-DIRECTOR: Inwieweit braucht man in Zeiten von künstlicher Intelligenz und selbstlernenden Algorithmen den Menschen überhaupt noch?
K. Bollhoefer:
Wie bereits beschrieben, sind die Algorithmen Stand heute für sich allein genommen ziemlich wert- und damit nutzlos. Die konkrete und gemäß der Fragestellung optimierte Anwendung von Algorithmen auf Daten ermöglicht neue Erkenntnisse und damit die Entwicklung neuer Produkte, Prozesse und Geschäftsmodelle. Dafür braucht es den Menschen in der Rolle des Datenexperten. Das zukünftig für mehr und mehr spezifische Einsatzgebiete Lösungen entwickelt werden, die automatisiert oder gar autonom auf Basis von Daten, Algorithmen und – nicht zu vergessen – Rechenpower agieren, ist vorhersehbar. Denken wir an autonome oder teilautonome Fahrzeuge. Aber selbst da, in der Entwicklung dieser Lösungen, ist der Mensch Dreh- und Angelpunkt, nennen wir es „Herr über die Daten und Algorithmen“.

IT-DIRECTOR: Warum sind „intelligente, selbstlernende Maschinen“ den Menschen überlegen – wie häufig in der IT-Branche kolportiert wird?
K. Bollhoefer:
Maschinen sind dem Menschen immer dann überlegen, wenn es um die kontinuierliche Anwendung wiederkehrender Aufgaben geht – egal in welcher Form, egal in welchem (klar umgrenzten) Umfeld –, unabhängig davon, ob es um industrielle Produktion, Realtime Bidding, Aktienhandel, Go-Spielen oder in Zukunft um Autofahren geht. Weitere Vorteile: sie werden nicht müde, realisieren ihre Aufgaben in gleichbleibend hoher Ausführungsqualität und werden nicht krank. Auf der anderen Seite: Maschinen sind in dem Sinne immer noch dumm, auch wenn wir von künstlicher Intelligenz reden, können aber mehr und mehr lernen. So betrachtet sind sie dem Menschen wenig überlegen.

IT-DIRECTOR: Welche Gefahren und Risiken setzt man sich aus, wenn man selbstlernenden Algorithmen blindlings vertraut? Können Sie ein Beispiel nennen?
K. Bollhoefer:
Es gab vor Jahren mal die Situation, dass Trading-Algorithmen im Börsenhandel dafür gesorgt haben, dass die Börse kurzzeitig schließen musste. Das an sich ist nicht verwunderlich, sondern mehr oder minder erwartungskonform. Irritierend war, dass im Nachgang, trotz mehrmonatiger Analyse der University of Miami, die Ursachen nicht eindeutig identifiziert werden konnten und somit bis heute unklar ist, was wirklich in den paar Millisekunden schief gegangen ist. Es konnte somit nichts gelernt und im System verbessert werden. Wenn wieder etwas in der Art passiert, könnte man erneut nur den Notknopf betätigen.

Anderes Beispiel: Google hatte seiner Zeit für sein „Google Flu Trends“, die zu der Zeit sehr korrekte Vorhersage von Grippewellen, viel Aufmerksamkeit bekommen. Im zweiten Jahr hingegen lagen die Prognosen weit ab von der Realität und waren schlicht falsch, die Algorithmen wurden nicht auf die neuen Daten angepasst bzw. es kamen neue Einflussgrößen ins Spiel, die das Ergebnis massiv verfälschten. Realität ist: Maschinen, so smart sie auch bezogen auf ihre Algorithmen oder ihren Automatisierungsgrad erscheinen, machen Fehler und agieren aktuell jeweils noch in einem sehr eng gesteckten Rahmen. Wenn sich dieser Rahmen verschiebt, agieren sie de facto beliebig.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok