11.01.2017 Steuerung von Datenanalysen

Was bringt Künstliche Intelligenz?

Von: Ina Schlücker

Im Interview erklärt Jakob Rehermann, CEO des Software-Herstellers Datapine, inwiefern die Künstliche Intelligenz (KI) heute schon Eingang in Business-Intelligence-Lösungen (BI) gefunden hat und somit bereits Datenanalysen in den Unternehmen steuert.

Jakob Rehermann, Datapine

Jakob Rehermann, Datapine

IT-DIRECTOR: Herr Rehermann, inwiefern haben BI-Anbieter bereits Technologien der Künstlichen Intelligenz in ihren Systemen integriert?
J. Rehermann:
Sie haben Künstliche Intelligenz bisher kaum in ihre Software integriert. Es gibt zwar mehrere Applikationen, die KI einsetzen, dies aber meist nur sehr gezielt, z.B. zum Auffinden von Anomalien oder dem automatisierten Strukturieren und Aufbereiten von Daten. Weiterhin werden Algorithmen aus dem Bereich der KI oft eingesetzt, um Datenströme zu überwachen. Dies generiert u.a. bei der Wartung von Maschinen (Schlagwort „Predictive Maintenance“) einen Nutzen. Dabei werden Daten aus verschiedenen Sensoren analysiert und anhand bestimmter Muster erkannt, ob die Maschine noch reibungslos funktioniert bzw. ob und welche Art von Wartung durchgeführt werden muss.

IT-DIRECTOR: Wie verändert sich dadurch der Funktionsumfang?
J. Rehermann:
Der Funktionsumfang von BI-Tools kann sich dadurch in mehrere Richtungen verändern und den Anwender bei der Analyse sowie der Überwachung seiner Kennzahlen unterstützen. Anbieter wie wir verwenden KI zum einen, um den Nutzern durch die automatisierte Analyse von Daten eine Vielzahl von teils versteckten Einblicken in ihre Datensatz zu geben. Dazu gehören neben Trends und Vorhersagen auch die Identifikation von Wachstumstreibern, interessanten Segmenten, Anomalien und Korrelationen. Basierend auf diesen Informationen kann der Anwender seine Analyse gezielter durchführen bzw. ist diese teilweise gar nicht mehr notwendig. Zum anderen können die wichtigsten Geschäftskennzahlen (KPIs) automatisiert überwacht werden. Wenn ein bestimmtes Muster, Trend oder eine unerwartete Veränderung (Anomalie) entdeckt wird, wird die verantwortliche Person direkt informiert.

IT-DIRECTOR: Was KI-basierte BI-Lösungen leisten, was bisherige Systeme nicht konnten?
J. Rehermann:
Ein Vorteil ist, dass BI-Lösungen im Normalfall bereits mit den relevanten Daten verbunden sind. Diese müssen also nicht nochmals aufbereitet und importiert werden. Weiterhin können alle Analysen in einer zentralen Benutzeroberfläche durchgeführt werden. Diese ist bei modernen Programmen oft so intuitiv, dass die Software auch von Mitarbeitern aus den Fachabteilungen bedient werden kann. Durch den selbstlernenden Charakter von KI-Algorithmen liefern diese oft aussagekräftige Ergebnisse, ohne dass komplexe Modifikationen von Ein- oder Ausgabeparametern erforderlich sind. Diese einfache Bedienung ermöglicht zunehmend auch Mitarbeitern ohne statistischen oder mathematischen Hintergrund, die Vorteile von KI zu nutzen.

IT-DIRECTOR: Welche Rolle spielen in diesem Zusammenhang „maschinelles Lernen“ oder „Deep Learning“?
J. Rehermann:
Ziel des maschinellen Lernens ist es, anhand von Beispielen die Muster und Zusammenhänge in Daten zu erkennen und diese in verallgemeinerter Form auf neue Datensätze zu übertragen. Die dafür verwendeten Algorithmen basieren u.a. auf Modellen der linearen Algebra, Statistik und Wahrscheinlichkeitsrechnung. Während neuronale Netzwerke Vorteile in Bereichen, wie der Erkennung von Anomalien aufweisen, sind statistikbasierende Modelle bei der Datenanalyse oft die einfachere und vor allem nachvollziehbare Variante. Letzteres ist besonders wichtig, wenn die Vorgehensweise zum Erhalt der Berechnungsergebnisse bei wichtigen Entscheidungen im Arbeitsalltag nachvollziehbar dargestellt werden muss.

Dies ist ein Artikel aus unserer Print-Ausgabe 12/2016. Bestellen Sie ein kostenfreies Probe-Abo.

„Deep Learning“ ist ein Bereich des maschinellen Lernens. Bei dieser bereits länger bekannten Technik, werden neuronale Netze anhand großer Datenmengen trainiert. Ziel ist es, z.B. Gegenstände und Gesichter zu erkennen, Sprache zu verstehen oder generell nicht eindeutig definierte Probleme zu lösen. Diese Methode zeigt in den letzten Jahren erfolgsversprechende Fortschritte und wird beispielsweise zunehmend in der Robotik eingesetzt. Grund dafür sind u.a. das als Lerngrundlage zunehmende Datenvolumen sowie die zur Verfügung stehende Rechenleistung zur Verarbeitung der Informationen.

IT-DIRECTOR: Alle Analysen nutzen nichts, wenn sich daraus nicht sinnvolle Handlungsempfehlungen ableiten und umsetzen lassen. Welche Schritte sollten die Anwender nach der Analyse einleiten?
J. Rehermann:
Meist wird die Analysemethode bereits vor der Auswertung basierend auf einer gewissen Problemstellung ausgewählt. Das heißt, die verschiedenen Ergebnisoptionen sind bekannt und die Bereitschaft vorhanden, auf diese zu reagieren. Besonders bei unerwarteten Analyseergebnissen ist es jedoch wichtig, diese durch weitere Auswertungen zu validieren. Dies ist anhand einer BI-Software möglich. Damit kann ein Datensatz in verschiedenen Detail- und Filterebenen betrachtet werden, um so die Ursache z.B. einer unerwarteten Veränderung weiter einzugrenzen.

IT-DIRECTOR: Welche Risiken können sich aus der zunehmenden Verknüpfung von Datenanalysen und Künstlicher Intelligenz ergeben?
J. Rehermann:
Die eigentliche Herausforderung bei der Datenanalyse ist zu wissen, wie der Datensatz aufbereitet werden soll und welcher Ansatz mit welchen Parametern zur Analyse geeignet ist. Das größte Risiko dabei ist, dass eine ungeeignete Methode gewählt und dem Ergebnis blind vertraut wird. Dieses Risiko erhöht sich, umso undurchsichtiger der Rechenweg ist. Im Bereich der Künstlichen Intelligenz ist dieser oft kaum nachvollziehbar. Daher ist es besonders wichtig, das Ergebnis, z.B. anhand von Testdatensätzen zu validieren, bevor darauf basierend Entscheidungen getroffen werden.

Bildquelle: Datapine

©2017 Alle Rechte bei MEDIENHAUS Verlag GmbH