KI und Analytics in hybriden Umgebungen

Getrennt und trotzdem zusammen

Künstliche Intelligenz gilt als Schlüsseltechnologie der Zukunft. Vor jeder Datenanalyse steht aber zunächst ein Berg an Arbeit – denn die Daten, Systeme und Werkzeuge liegen meist verstreut auf verschiedenen Plattformen. Verteilte Big-Data-as-a-Service-Architekturen können dabei helfen, das Problem zu lösen.

Bunte Bausteine

Auseinanderlassen, was zusammengehört: Für Big-Data-Analysen sollten Unternehmensdaten dort belassen werden, wo sie meist aus guten Gründen gespeichert sind.

Daten, so heißt es allenthalben, sind das Öl des 21. Jahrhunderts. Datenberge in Tera-, Peta- und Exabyte-Volumen sollen mit maschinellem Lernen (ML), Künstlicher Intelligenz (KI) und Big Data Analytics zu möglichst einträglichen Einsichten destilliert werden und Prozesse automatisieren. So ungefähr lautet das Mantra der IT-Gegenwart.

Die Realität in vielen Unternehmen sieht indessen anders aus. Nicht nur fehlen Datenspezialisten aller Art, egal, ob sie nun als Data Analysts, Data Scientists oder Data Engineers bezeichnet werden. Die wenigen, die es gibt, müssen sich zudem viel zu lange damit beschäftigen, ihre analytischen Umgebungen mühselig aus Einzelteilen zusammen zu stricken, ehe sie sich ihrer eigentlichen Aufgabe, nämlich Daten zu analysieren, zuwenden können.

Denn die meisten Unternehmen haben inzwischen eine hybride IT, die sich aus lokalen IT-Komponenten, dedizierten Systemen und Private Clouds, sowie diversen Formen der externen Cloud-Nutzung zusammensetzt. Die Daten lagern an unterschiedlichen Stellen: im zentralen Data Lake, in der Cloud, in Niederlassungen oder in Speicherbereichen, auf die die Server von Fachbereichen zugreifen.

Die Rechenleistung, Analyse-Instrumente und KI-Werkzeuge mögen irgendwo in der Public Cloud residieren – es kann aber auch umgekehrt sein: Ein Unternehmen hält beispielsweise Daten beim Public-Cloud-Provider, während firmenspezifische Analyse- oder Prognose-Software auf den Private-Cloud-Systemen oder dedizierten Rechnern läuft. Gegen die Datenverlagerungen zu analytischen Zwecken sprechen oft genug Bedenken von Compliance- und Governance-Verantwortlichen, die diese Ressourcen stets an einem sicheren Ort wissen möchten, außerdem der Bandbreitenbedarf der jeweiligen Firmennetzwerke.

In jedem Fall stellt der Aufbau der passenden analytischen Umgebungen für die jeweiligen Workloads in einem solchen hybriden Kontext die damit Befassten vor erhebliche Herausforderungen. Das kann KI- und ML-Projekte erheblich verzögern und verteuern.

Die Rechenleistung bleibt, wo sie ist

Eine Lösung des Problems besteht darin, die Daten da zu belassen, wo sie meist aus guten Gründen gespeichert sind, und sie trotzdem in Analysen einzubeziehen. Da hybride Architekturen in den letzten Jahren zur Norm geworden sind, stehen inzwischen auch die Technologien zur Verfügung, die ein solches verteiltes Analytics-Modell mit der erforderlichen Schnelligkeit, Skalierbarkeit und Flexibilität ausstatten.

Als flexible Basistechnologie dafür fungieren nicht, wie meist noch üblich, virtuelle Maschinen, sondern Container, die vollkommen hardware-unabhängig arbeiten. Wer will, kann sie auch innerhalb einer virtuellen Maschine auf einem Hypervisor betreiben, notwendig ist das aber nicht. Bare Metal genügt, was das Hardware-Spektrum hin zu modernen anforderungsangepassten Architekturen öffnet.

Datenmigrationen erspart den Anwendern die so genannte Datatap-Technologie. Mit ihr lassen sich anwenderspezifische digitale Pfade zu genau denjenigen Daten legen, die in bestimmte Analysen einfließen sollen, und zwar unabhängig davon, wo sich diese Daten befinden. Diese Pfade sind geschützt und gestatten es nur den Berechtigten, sie zu nutzen. Die Rechenleistung bleibt, wo sie ist, die Daten auch, analysiert wird trotzdem. Datataps lassen sich für spezifische Mandanten anlegen, die sie als einzige verwenden dürfen. Dabei kann nahezu alles ein Mandant sein: Niederlassungen, Arbeitsgruppen, Fachbereiche, spezielle analytische Aufgaben oder anderes.

Wichtig aus Sicht der Datenwissenschaftler, die die tägliche analytische Arbeit zu verrichten haben, sind mandantenspezifische Selbstbedienungsportale. Die benötigten Komponenten, Open-Source-Tools und andere Werkzeuge stehen hier zum Zusammenklicken bereit. So entsteht innerhalb kürzester Zeit die gewünschte analytische Umgebung im Point-and-Click-Verfahren.

Technologien wie Container, Datataps und Selbstbedienungsportale können die Komplexität von ML, KI und Big Data Analytics reduzieren und ihre Kosten um bis zu gut zwei Drittel senken. Außerdem sorgen sie dafür, dass die nötigen Umgebungen und damit die von ihnen erzeugten Analysen weitaus schneller zur Verfügung stehen – gegebenenfalls zunächst in einem minimalen Pilotformat, um später auf die gewünschte Plattformgröße zu skalieren.

* Der Autor Thomas Meier ist Chief Technologist bei Hewlett Packard Enterprise.

Bildquelle: iStock/Getty Images Plus

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok