Interview mit Uwe Weiss, Blue Yonder

Intelligente Algorithmen für Big Data

Interview mit Uwe Weiss, Geschäftsführer von Blue Yonder, über den erfolreichen Einsatz von Big-Data-Analysen dank intelligenter Algorithmen sowie den Stellenwert von Compliance-Vorgaben

Uwe Weiss, Blue Yonder

Uwe Weiss, Geschäftsführer von Blue Yonder

IT-DIRECTOR: Herr Weiss, mit welchen Investitionen müssen Großunternehmen rechnen, wenn Sie ein Big-Data-Projekt in Angriff nehmen wollen?
U. Weis:
Der Umfang und die Art der Investitionen hängen stark von den Zielen ab, die mit dem Big-Data-Projekt verfolgt werden. Es ist schwer eine allgemeingültige Antwort zu geben. Wir sehen bei Kunden Projekte deren primäres Ziel es ist, Wissen im Umfeld von Big Data zu gewinnen. Hier dominieren Investitionen in Hardware, Schulungen und Personal. Davon unterscheiden sich Big-Data-Projekte, die eine vom Business definierte Zielsetzung in ihrer Umsetzungsstrategie haben: Make or buy.

Kunden, die sich für die interne Umsetzung entscheiden, müssen je nach Reifegrad der eigenen Organisation Investitionen in den kompletten Technologie-Stack (Hard- und Software), als auch das eigene Personal für die Entwicklung und den Betrieb einer solchen Lösung stecken. Kunden, die auf Software-as-a-Service-Anbieter (SaaS) setzen, investieren in Projektaufwände für die Integration und in operative Ausgaben für den bezogenen Dienst. Häufig übersehen werden notwendige Investitionen in Daten: nicht immer sind die Daten in dem erhofften Umfang oder der notwendigen Qualität vorhanden. In solchen Fällen muss in bestehende Prozesse oder IT-Systeme investiert werden.

Über unsere Marktbeobachtung hinaus teilen wir die Sicht verschiedener Analysten. Eine aktuelle, auch in Deutschland durchgeführte Studie der Experton Group zeigt, dass derzeit vor allem in Infrastruktur und Software investiert wird. Wir setzen mit unserem Produkt Forward Demand auf eine SaaS-Standardlösung mit kalkulierbaren und transparenten Kosten, so dass der Kunde von Beginn an weiß, welche Investitionen auf ihn zukommen. Durch die hohe Benutzerfreundlichkeit unserer Schnittstelle stellen wir zudem sicher, dass unnötig hohe Schulungskosten vermieden werden und auch sonst sind wir aufgrund der Flexibilität der Lösung in der Lage, diese in bestehenden IT-Infrastrukturen ohne zusätzlichen Aufwand zu integrieren.

IT-DIRECTOR: Welche Kosten machen Ihrer Ansicht nach dabei den größten Batzen aus, und warum?
U. Weis:
Bei der Analyse der Hauptkostentreiber bietet sich eine Unterscheidung nach Art des Big-Data-Projektes an. Es gibt – einige wenige – Projekte, die von großen Investitionen in Hardware und Softwarelizenzen dominiert werden. Hier treiben die zu speichernden Datenmengen die Kosten der eingesetzten Hardware in die Höhe. Wenn ein Handling durch das eigene IT-Team gewünscht ist, ist auch im Bereich Operations mit Investitionen in Ausbildung und Personal zu rechnen, da bisherige Systeme und der Arbeitsaufwand sich typischerweise stark unterscheiden. Bei Projekten, die auf SaaS-Angebote setzen, stehen die Investitionen in die Integration und die Servicegebühren im Vordergrund.

IT-DIRECTOR: Welche Anschaffungen sind für reibungslose Big-Data-Analysen Pflicht? Auf welche könnte man eher verzichten bzw. an welcher Stelle könnte man vorhandene (Alt-)Systeme nutzen?
U. Weis:
Das kommt auf die bereits existierende IT-Infrastruktur an. Generell kann man sagen: je besser die einzelnen IT-Komponenten eines Unternehmens miteinander kommunizieren, desto einfacher ist es auch, die insgesamt generierten Daten zusammenzuführen und zu analysieren. Dies ist allerdings keine Grundvoraussetzung. Predictive Analytics wertet die Daten aus heterogenen Informationsquellen aus, die bei Bedarf auch um externe Daten ergänzt werden.

IT-DIRECTOR: In der Praxis treffen wir aktuell immer wieder auf Anwender, die bereits in Big-Data-Lösungen investiert haben. Allerdings wissen viele davon nicht, was sie mit den Analysetools anfangen sollen. Was geben Sie diesen Anwendern mit auf den Weg?
U. Weis:
Die Erkenntnis von Grady Booch bleibt gültig: „A fool with a tool is still a fool“. In der IT-Welt wird gerne und schnell auf Werkzeuge (Tools) zurückgegriffen. Der Vorteil liegt auf der Hand – Werkzeuge sind versatil einsetzbar und können bei vielen Problemlösungen helfen. Vor der Auswahl sollte aber das Problemverständnis stehen. Einzige Ausnahme bilden Projekte, bei denen man bewusst in das Erlernen eines Werkzeuges investiert, um herauszufinden, bei welchen Herausforderungen es unterstützen kann.

Unsere Empfehlung ist es daher, immer die Zielstellung klar zu formulieren und in kurzen, schnellen Vorprojekten die zentralen Hypothesen zu validieren, welche die Einführung einer Lösung oder eines Werkzeuges unterstützen. Wir weisen unsere Kunden immer auf die Potentiale hin, die sich durch den Einsatz von Predictive Analytics und Big Data im Bereich der massenhaften Automatisierung von operativen Prozessen ergeben. Abläufe werden dadurch wesentlich effizienter. Predicitive Analytics wird u.a. in der Absatzplanung, der automatisierten Disposition, der Retourenoptimierung, bei Risikoanalysen und der dynamischen Preisgestaltung oder auch der Kundenanalyse (Customer Analytics) eingesetzt. Im ersten Schritt gilt es immer zu prüfen, ob die notwendigen Voraussetzungen vorhanden sind, um die Potentiale ausreichend nutzen zu können. Dabei prüfen wir mit unseren Kunden die Verfügbarkeit der Daten, deren Qualität sowie die Möglichkeit Prognosen zu rechnen, Entscheidungen zu automatisieren und den zu erwartenden ROI.

IT-DIRECTOR: Welche Algorithmen erweisen sich im Rahmen von Big-Data-Analysen dabei als besonders sinnvoll?
U. Weis:
Wir greifen auf einen großen Fundus an bewährten Algorithmen zurück – sowohl bekannte als auch Eigenentwicklungen. Der Algorithmus alleine ist aber nur eine entscheidende Zutat für präzise Prognosen. Ebenso wichtig ist die Erfahrung und Kompetenz aus den Verfahren und Algorithmen robuste und skalierbare Services zu entwickeln, die sich verlässlich und rund um die Uhr betreiben lassen.

Grundsätzlich gilt: Um präzise und akkurate Analysen zu erhalten, müssen die Algorithmen passgenau auf die Branche zugeschnitten sein. Jeder Geschäftszweig hat eigene Anforderungen, die sich nicht zwingend auf andere Sektoren übertragen lassen. Hier bedarf es eines zuverlässigen Lösungspartners, der Branchenwissen bietet und seine Produkte auf Branchen, Unternehmen, oder Marktsituation anpassen kann.

IT-DIRECTOR: Können Sie uns ein kurzes Beispiel für die erfolgreiche Anwendung von Big-Data-Analysen beschreiben?
U. Weis:
Der Sportartikelhändler Sportscheck setzt seit vier Jahren erfolgreich auf Big Data Analytics mithilfe von Blue Yonder, um so die Qualität der Absatzprognosen bis auf die Einzelartikelebene zu verbessern und Fehleinschätzungen zu vermeiden. Die SaaS-Lösung analysiert hierfür präzise das Besucherverhalten im Onlineshop und bezieht eine Vielzahl interner und externer Einflussfaktoren mit ein. So wird der Artikelbedarf in Echtzeit vorausgesagt. Damit kann das Handelsunternehmen flexibel und schnell auf kurzfristige Entwicklungen reagieren. Insgesamt konnte das Unternehmen die Prognosequalität seines Webshops um bis zu 40 Prozent verbessern. Und auch die mittlere absolute Abweichung der Vorhersage zu den tatsächlichen Verkaufszahlen ließ sich um 50 Prozent reduzieren. Dadurch kann Sportscheck die Retourenquote nun präziser bestimmen.

IT-DIRECTOR: Big-Data-Analysen können auf strukturierten wie unstrukturierten Daten basieren. Insbesondere letztere werden gerne zur Auswertung des Kundenverhaltens herangezogen. Wie kann man dafür sorgen, dass solche Auswertungen weder Compliance-Vorgaben noch die Privatsphäre von Kunden verletzen?
U. Weis:
Hier sind die Datenschutzbeauftragten der jeweiligen Unternehmen gefragt, dafür zu sorgen, dass Compliance-Richtlinien penibel eingehalten werden und der Datenschutz zu jeder Zeit gewährleistet ist. Die Bedingungen, unter denen ein Kunde seine Daten freigibt, müssen in den jeweiligen Richtlinien klar aufgeführt sein und vom Unternehmen eingehalten werden. Wenn eine Person beispielsweise seine Daten nur für ein Gewinnspiel freigibt, dann muss sich das Unternehmen an die entsprechende Regelung halten. Damit alle rechtlichen Randbedingungen eingehalten werden, müssen allen Mitarbeitern im Unternehmen, die Zugriff auf personenbezogenen Daten haben könnten, entsprechend sensibilisiert werden. Nur über effiziente organisatorische Maßnahmen bewegen sich Auswertungen im Rahmen dessen, was vom Gesetzgeber oder in den Compliance-Regeln vorgegeben ist. Technische Maßnahmen zum Schutz von Daten vor Zugriffen durch Unbefugte können hierbei unterstützend eingesetzt werden.

IT-DIRECTOR: Wer in den Unternehmen sollte überhaupt mit solchen Daten Analysen durchführen dürfen? Worauf gilt es, bei der Vergabe von Nutzerrechten sowie generell beim Nutzermanagement besonders zu achten?
U. Weis:
Nicht in allen Anwendungsszenarien ist die Verarbeitung und Speicherung von personenbezogenen Daten notwendig. Wenn dies genau evaluiert wird, spart man sich in vielen Fällen die Notwendigkeit eines aufwendigen Nutzungsrechtemanagement auf Datenebene. In den Fällen, in denen es dennoch notwendig ist, sollten auch nur die Personen Zugriff auf Daten erhalten, die tatsächlich damit arbeiten. Hier helfen technische Maßnahmen, um Daten gegen unbefugte Zugriffe zu schützen. Wir empfehlen hierzu immer den Nutzerkreis so minimal wie möglich zu halten und Nutzer auf die Rahmenbedingungen für den Zugriff (Compliance, Datenschutz) zu schulen sowie Anlaufstellen für konkrete Fragen zu schaffen.

IT-DIRECTOR: Was denken Sie: Mit welchen Big-Data-Analysen überschreiten Unternehmen bereits heute bzw. könnten sie in Zukunft schnell ethische und gesetzliche Grenzen überschreiten?
U. Weis:
Der Gesetzgeber hat ganz deutlich enge Datenschutzrichtlinien formuliert. An diese müssen sich alle Unternehmen in Deutschland halten.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok