29.03.2016 Neue Geschäftsmodelle dank Big Data

Experimente im Big-Data-Labor

Von: Christoph Sporleder

In einem Big-Data-Labor können die Verantwortlichen mit ihren Big-Data-Beständen unterschiedliche Experimente, Prozess- und Qualitätskontrollen, Prüfungen, Messungen oder Kalibrierungen durchführen.

Experimente im Big-Data-Labor

Experimente im Big-Data-Labor: Mit Big-Data-Beständen lassen sich im Lab u.a. Prozess- und Qualitätskontrollen durchführen.

Big Data, Industrie 4.0, Predictive Analytics – was Experten lang und breit diskutieren, wird noch lange nicht in die Realität umgesetzt. Grund dafür können reglementierte IT-Budgets und – damit zusammenhängend – eine geringe Experimentierfreude bei CIOs sein. Abhilfe kann ein Big-Data-Labor schaffen.

Eine Stärke von Big Data Analytics ist es, zuvor unsichtbare Muster und Trends in Datenströmen zu identifizieren. Wer das nutzen will, muss ergebnisoffen an diese Analysen herangehen – sprich: Experimente wagen und das Scheitern von Ansätzen in Kauf nehmen. Unternehmen investieren jedoch nur ungern in langwierige Projekte mit ungewisser Erfolgsaussicht.

Dabei können die Verantwortlichen in einem Big-Data-Labor folgende Szenarien ausprobieren: Was verändert sich an meinem Geschäft, wenn ich an dieser oder jener Schraube drehe? Nicht mit vorgefertigten Fragen und Modellen an die Daten herangehen, sondern schauen, was diese zu bieten haben – so lautet die Devise. Und nicht selten sind dies neue Geschäftsmodelle.

Der Lab-Ansatz ist wichtig, um Innovationen im Unternehmen voranzutreiben. Denn in Bezug auf Digitalisierung und die Nutzung von Big Data herrscht große Verunsicherung: Stimmt das Kosten-Nutzen-Verhältnis? Gefolgt von einem ambivalenten Gefühl: Wir müssen handeln, wissen aber nicht wie. Das belegt auch die Studie „Wettbewerbsfaktor Analytics“, eine Gemeinschaftsarbeit zwischen der Universität Potsdam und dem Softwarehersteller SAS, die den analytischen Reifegrad von Unternehmen in der DACH-Region ermittelt. Ein Großteil der Firmen im Industriesektor beispielsweise verdrängt das Thema und riskiert damit die eigene Zukunftsfähigkeit. 90 Prozent der Industrieunternehmen in Deutschland, Österreich und der Schweiz nutzen noch immer weniger als die Hälfte ihrer Daten. Und nur 30 Prozent der befragten Banken- und Versicherungsunternehmen beschäftigen sich intensiv mit dem Thema Big Data.

Keine Perfektion im Big-Data-Lab

Ein Lab schafft die nötige Freiheit zum Experiment, damit das Potential aus Big Data in wirtschaftliche Vorteile umgesetzt werden kann. Entscheidend ist, beim Experimentieren nicht gleich in Grenzen zu denken. Im Lab reichen 80 Prozent Datenqualität, und Scheitern ist ausdrücklich erlaubt. In puncto Datenschutz herrscht eine besondere Situation, da Daten nur temporär für einen eingeschränkten Nutzerkreis gespeichert werden. Mit einem Big Data Lab, wie es z.B. SAS anbietet, bleiben die Risiken und Kosten überschaubar. Und auch die Tatsache, dass das Lab auch als Cloud-Umgebung aufgesetzt werden kann, kann den Einstieg in die Big-Data-Analysewelt einfacher machen.

Ein Fehler wäre es, Big-Data-Projekte innerhalb der vorhandenen Analytics-Infrastruktur umsetzen zu wollen. Stattdessen ist es notwendig, produktive Umgebung und Experimentierfeld zu trennen – wie es eben im Lab möglich ist. Das Lab funktioniert als Innovationstrichter: Dieser ist oben ganz breit und offen für jede Art von Information und kreativen, aber noch vagen Ideen, unten kommt im besten Fall ein Ergebnis raus. Als letzten Schritt im Prozess entwickelt der Data Scientist im Lab in enger Zusammenarbeit mit der Fachabteilung ein statistisches Modell. Nach dem „Fail-Fast“-Prinzip wird ein Ansatz schnell verworfen, wenn sich innerhalb kurzer Zeit, das heißt von zwei Wochen, kein Erfolg zeigt.

Checkliste: Big-Data-Projekte

  • Die Unterstützung durch das Top-Management ist immens wichtig, um Big-Data-Projekte voranzutreiben und eine analytische Kultur zu etablieren.
  • Schritt-für-Schritt-Ansatz: Besser in einer Fachabteilung mit einem Anwendungsfall anfangen und dann peu à peu die Einsatzgebiete erweitern, als erst gar nicht anzufangen.
  • Trennung von Big Data Lab und produktiver Analytics-Infrastruktur ermöglicht das freie Experimentieren ohne Störung der produktiven Abläufe. Sinnvoll ist es auch, Projekten im Lab ein eigenes Budget zuzuteilen, sodass sich nicht schon in der „Trial-and-Error“-Phase ein Anwendungsfall rechnen muss.
  • Generische Business-Case-Templates nutzen, statt sich im Vorfeld auf spezielle Anwendungsfälle festzulegen. Auf diese Weise lassen sich schnell (Miss-)Erfolge feststellen.
  • IT und Fachbereiche müssen eng zusammenarbeiten, um gemeinsam Fragestellungen zu entwickeln und die Akzeptanz für Big Data Analytics zu erhöhen.

Bildquelle: Thinkstock/iStock

©2016 Alle Rechte bei MEDIENHAUS Verlag GmbH