Big-Data-Projekte erfolgreich umsetzen

Datenschutz bei Big Data Analytics

Interview mit Frank Häger, Senior Account Manager bei Fico, einem Anbieter von Lösungen von Predictive Analytics und Software für Entscheidungsmanagement, sowie Gerald Fahner, Analytic Science Director im Research Center Fico Labs, über Big-Data-Technologien sowie die Bedeutung des Datenschutzes bei Big Data Analytics

  • Fico

    Frank Häger, Senior Account Manager bei Fico, einem Anbieter von Lösungen von Predictive Analytics und Software für Entscheidungsmanagement

  • Gerald Fahner, Analytic Science -Director im Research Center Fico Labs

IT-DIRECTOR: Herr Häger, mit welchen Investitionen müssen Großunternehmen rechnen, wenn Sie ein Big-Data-Projekt in Angriff nehmen wollen?
F. Häger:
Es fällt schwer, eine „Einkaufsliste“ zu erstellen, die für jedes Big-Data-Projekt gültig ist. Bei unserer Herangehensweise an Big-Data-Projekte ist es zunächst das Ziel, zusätzliche Investitionen in die Infrastruktur zu vermeiden und stattdessen – soweit es möglich ist – die bestehenden Systeme zu nutzen. Um den Nutzen von Big Data abschöpfen zu können, sind allerdings cloud-basierte Lösungen ein effizienter Ansatz, da sie verhältnismäßig schnell und einfach implementiert werden können. Zumeist braucht es dazu noch geeignete Analyse- und Analytiktools, um den Dreisprung „Von Daten zu Informationen zu Wissen“ mit den großen Mengen, vor allem unstrukturierter Daten, bewältigen zu können. Welche Investitionen für Infrastrukturen und Lösungen dabei aber genau getätigt werden müssen, hängt von den Gegebenheiten im Einzelfall ab.

IT-DIRECTOR: Welche Kosten machen Ihrer Ansicht nach dabei den größten Batzen aus, und warum?
F. Häger:
Die größten Anteile nimmt regelmäßig die Einrichtung der Software ein, egal ob cloud-basiert oder herkömmlich, weil jede Lösung auf die konkreten Belange angepasst werden muss. Deswegen ist es umso wichtiger, sich als Unternehmen so aufzustellen, dass man sich Big Data zunutze machen kann: Was will man als Unternehmen überhaupt aus Big-Data-Analysen und -Analytik an Informationen und Wissen herausziehen. Es kommt also zunächst mal entscheidend darauf an, die richtigen Fragen zu stellen – und die Antworten in einem zweiten Schritt in die Geschäftsprozesse einfließen zu lassen. Ein weiterer großer Posten sind die laufenden Kosten, beispielsweise für das Hosting, das intern oder extern gemacht werden kann.

IT-DIRECTOR: Bitte nennen Sie uns – Ihrer Einschätzung nach – eine Größenordnung für die Kosten der aufgezählten Komponenten.
F. Häger:
Das hängt stark vom Einzelfall ab. Folgende Größenordnungen scheinen jedoch realistisch: Nehmen wir eine mittelgroße Bank mit etwa fünf bis acht Millionen Kunden. Für Software und deren Implementierung – inklusive Originations-Anwendung für die Kreditvergabe – muss man etwa 500.000 Euro als Initialinvestition im ersten Jahr ansetzen. Für den laufenden Betrieb kommt vor allem das Hosting hinzu, für das die Bank zusätzliche interne Ressourcen schaffen muss, um zu gewährleisten, dass zwei bis drei Analysten und etwa fünf bis zehn Geschäftsnutzer regelmäßig Zugriff haben und mit der Lösung arbeiten können. Bei der vergleichbaren Cloud-Variante sind Erstinvestitionen in ähnlichem Umfang zu tätigen. Für das Hosting, das man bei einer Cloud-Installation häufig an einen Dienstleister übergibt, sind etwa 200.00 Euro pro Jahr zu kalkulieren. Der Vorzug einer Cloud-Lösung sind demnach vor allem die schnelle zeitliche Verfügbarkeit sowie der gesparte Aufwand, die zusätzlichen technischen und personellen Ressourcen für den laufenden Betrieb bereitzustellen.

IT-DIRECTOR: Welche Anschaffungen sind für wirkungsvolle Big-Data-Analysen Pflicht? Auf welche könnte man eher verzichten bzw. an welcher Stelle könnte man vorhandene (Alt-)Systeme nutzen?
F. Häger:
Die Praxis zeigt, dass ein Big-Data-System in den seltensten Fällen „auf der grünen Wiese“ aufgesetzt werden kann, sondern in eine bestehende Systemlandschaft integriert werden muss. Die Analyse sollte daher zeigen, an welcher Stelle man nachbessern oder erweitern muss: Braucht man leistungsfähigere Analytiktools, müssen Datenbankinhalte überarbeitet werden oder muss die Rechenleistung als solche gesteigert werden? Sind cloud-basierte Lösungen der richtige Weg oder sollte man „on Premise“ installieren. Man wird sich künftig häufig für eine Cloud-Lösung entscheiden, denn deren Charme ist, dass dafür nicht mehr die umfangreichen IT-Projekte der Desktop-Ära mit entsprechenden Investitionen in die Anschaffung und hohen laufenden Kosten für Wartung gestartet werden müssen. Leistungsstarke Lösungen können beinahe wie aus einem Appstore zusammengestellt werden und sind grundsätzlich innerhalb weniger Tage startklar. Im zweiten Schritt können diese dann auf die konkreten Anforderungen und Wünsche des einzelnen Unternehmens bzw. der Anwendung angepasst werden.

IT-DIRECTOR: Herr Fahner, in der Praxis treffen wir aktuell immer wieder auf Anwender, die bereits in Big-Data-Lösungen investiert haben. Allerdings wissen viele davon nicht, was sie mit den Analysetools anfangen sollen. Was geben Sie diesen Anwendern mit auf den Weg?
G. Fahner:
Zu Beginn stehen die relevanten Geschäftsfragen, anhand derer es herauszufinden gilt, welches die Ziele der Nutzung von Big Data sind. Erst im nächsten Schritt stellt sich die Frage, wo die Daten herkommen, wie gut und wie verlässlich sie sind, welche Informationen daraus extrahiert werden können und welche Art von Daten, die noch nicht vorhanden sind, erworben werden sollten und auf welche Art das passieren soll. Dann erfolgt die Auswahl der geeigneten Analysetools, mit denen die Anwendung für die Big-Data-Analyse implementiert wird. Zu guter Letzt sollen ja Entscheidungen auf Basis der Analyse getroffen werden. Diese können automatisiert mittels Entscheidungsbäumen bzw. Business Rule Services implementiert werden.

IT-DIRECTOR: Welche Algorithmen erweisen sich im Rahmen von Big-Data-Analysen dabei als besonders sinnvoll?
G. Fahner:
Man kann sich denken, dass die Algorithmen von den geschäftlichen Fragen und den zur Verfügung stehenden Daten abhängen. Für den Fall, dass es z.B. in erster Linie um die Einordnung und Vorhersage geht und die Daten einwandfrei sowie repräsentativ für den Problembereich sind, haben sich Tree Ensemble Learners für Trendprognosen und Einordnung als besonders leistungsfähig erwiesen. In Fällen von Dateneinschränkungen oder sobald die Einbeziehung älteren Wissens in Vorhersagemodelle erforderlich wird, hilft meist die Scorecard Engineering Technology. Bei anderen Problemstellungen, für die keine Vorhersageziele festgelegt sind, kommen unbeaufsichtigte Methoden wie Clustering oder Outlier-Detection-Algorithmen zum Einsatz. Für viele langwierige Geschäftsprobleme existieren nur wenige Tools von der Stange. Stattdessen müssen meist verschiedene Algorithmen in intelligenter Kombination Verwendung finden.

Deswegen werden Data Scientists neuen Zuschnitts händeringend gesucht: Als Nerd in Nadelstreifen sind sie heiß begehrt, denn die besten von ihnen sind – alleine oder im Team – ‚Techie‘ genug, um jede noch so komplexe Auswertung technisch und inhaltlich durchzuführen, dabei aber auch Manager und Berater genug, um die gewonnenen Erkenntnisse in eine Sprache zu überführen, die einem breiteren Publikum zugänglich ist. Und sie sind in der Lage, im zweiten Schritt mit der Unternehmensleitung die daraus abzuleitenden Strategien und Schritte zu diskutieren.

IT-DIRECTOR: Können Sie uns ein kurzes Beispiel für die erfolgreiche Anwendung von Big-Data-Analysen beschreiben?
G. Fahner:
Retail-Unternehmen jeglicher Art und Banken können mithilfe von Big-Data-Analysen sehr genau festlegen, wann und wie sie ihre Kunden beispielsweise mit Marketingaktionen am besten ansprechen: Über welchen Kanal (Brief, E-Mail, SMS), in welcher Frequenz und mit welchen Aktionen: 3 zum Preis von 2, diese Woche versandkostenfrei bestellen oder einfach ein Rabatt in Prozenten – und wenn ja, in welcher Höhe?

In erster Linie braucht es hier Daten zu Kundentransaktionen, die Millionen – wenn nicht gar Milliarden – von Interaktionen zwischen dem Kunden und dem Geschäft abgleichen, wie z.B. bei Kreditkartentransaktionen, Marketingangeboten und Call-Center-Gesprächen. Dabei kann dann der Einsatz der zur Verfügung stehenden Marketingressourcen unter Einhaltung eines vorgegebenen Budgets optimiert werden, die beste Kampagne für eine Kundengruppe mathematisch optimiert selektiert oder optimale Kampagnen zusammengestellt werden. Auch größere Optimierungsprojekte wie etwa die effektivste Nutzung von Energienetzen und das optimale Festlegen von Preisen im Energiehandel bei steigendem Anteil erneuerbarer Energien, tragen mittlerweile Charakteristika von Big-Data-Projekten. Dabei gilt es, Strombedarf und Stromproduktion aus konventionellen und erneuerbaren Quellen planerisch in Einklang zu bringen.

IT-DIRECTOR: Big-Data-Analysen können auf strukturierten wie unstrukturierten Daten basieren. Insbesondere letztere werden gerne zur Auswertung des Kundenverhaltens herangezogen. Wie kann man dafür sorgen, dass solche Auswertungen weder Compliance-Vorgaben noch die Privatsphäre (vgl. Datenschutz) von Kunden verletzen?
G. Fahner:
Die strikte Einhaltung geltender Gesetze ist selbstverständlich. Neben der Einhaltungspflicht von Regeln kommt es aber entscheidend darauf an, dass jedes Analytikteam eine Partnerschaft mit der Rechtsabteilung des Unternehmens unterhält und dass die Juristen ein sehr gutes Verständnis dafür besitzen, wie Datenschutz und Reglementierungen zur Privatsphäre eingehalten werden können und müssen. Aus geschäftlicher Sicht ist es zudem wichtig, die Sorgen des Kunden ernst zu nehmen und Transparenz zu schaffen: einen echten ‚Datendialog‘ anstoßen, Mehrwerte klar kommunizieren und erlebbar machen. Denn Studien zeigen, dass viele Bürger durchaus empfänglich für den Nutzen von Big Data sind, das Gefühl der verlorenen Datenkontrolle aber abschreckend wirkt. Andererseits besteht die Möglichkeit, dass manche Verbraucher mit ihren sozialen Daten spielen. Auch das sollte in Betracht gezogen werden, denn das kann zu kontraproduktiven Geschäftsergebnissen führen, wenn nicht kritisch damit umgegangen wird.

IT-DIRECTOR: Wer in den Unternehmen sollte überhaupt mit solchen Daten Analysen durchführen dürfen? Worauf gilt es, bei der Vergabe von Nutzerrechten sowie generell beim Nutzermanagement, besonders zu achten?
G. Fahner:
Grundsätzlich gilt: Je weniger Leute direkten Zugriff haben, desto einfacher wird das Nutzermanagement. Davon zu unterscheiden ist die Notwendigkeit, das durch Analysen akquirierte Wissen an möglichst viele entscheidende Stellen in der Organisation zu tragen, also nicht nur innerhalb der IT und einer konkret betroffenen Fachabteilung, sondern den Kreis weiter zu ziehen um damit die Organisation als solche besser zu machen.

IT-DIRECTOR: Was denken Sie: Mit welchen Big-Data-Analysen überschreiten Unternehmen bereits heute bzw. könnten sie in Zukunft schnell ethische und gesetzliche Grenzen überschreiten?
G. Fahner:
Das lässt sich pauschal nicht sagen: Manche Verbraucher nutzen Anonymisierungstools, weil sie es nicht in Ordnung finden, dass ihr Surfverhalten für Werbezwecke genutzt werden kann. Andere finden es zulässig, wenn man im Gesundheitswesen versucht, mit prädiktiver Analytik zu ermitteln, ob ein Patient seine Medikamente einnehmen wird.

Grundsätzlich ist die entscheidende Herausforderung, der Unternehmen gegenüberstehen, die Frage, wann und wie Daten, die zu einem Zweck gesammelt wurden, zu einem anderen Zweck genutzt werden können. Das ist in der Tat eines der meistversprechenden Gebiete von Big Data – viele der wertvollsten Big-Data-Anwendungen beinhalten diese Art von „Werttransfer“ der zusätzlichen Nutzung von Daten. In vielen Fällen gibt es für diese additive Nutzung noch keine Regelungen, was schlicht und ergreifend daher kommt, dass bisher niemand damit gearbeitet hat. Aus diesem Grund sollten Analytikteams immer mit den Rechtsabteilungen zusammenarbeiten, um sicherzustellen, dass sie nicht unbeabsichtigt Grenzen überschreiten.

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok