Drei Fragen an …

Das Bindeglied zwischen Maschinen und IT

Elvira Wallis von SAP und Walter Graf von Fujitsu im Gespräch über die Rolle von Edge Computing im Werk, die richtige Infrastruktur und den Umgang mit der Cloud.

  • Maschinenroboter im Werk

    „Die Edge arbeitet als Bindeglied zwischen den Maschinen in der Produktion (Operational Technology, kurz OT) und der IT”, so Walter Graf, Industrie 4.0 Evangelist und Fujitsu Distinguished Engineer. ((Bildquelle: Thinkstock/iStock))

  • Walter Graf, Industrie 4.0 Evangelist und Fujitsu Distinguished Engineer.

    Bislang gab es laut Walter Graf eine klare Trennlinie zwischen OT und IT. Diese Trennlinie zu überwinden, sei eine der Aufgaben einer Edge-Infrastruktur. ((Bildquelle: Fujitsu))

  • Elvira Wallis, Senior Vice President IoT Smart Connected Business Unit bei SAP

    „Neu an Edge Computing ist beispielsweise, dass Daten über mehrere Produktionswerke aggregiert werden können”, so Elvira Wallis, Senior Vice President IoT Smart Connected Business Unit bei SAP. ((Bildquelle: SAP))

„Flexible Anpassung: Mehr Traum(a) als Wirklichkeit!“ So lautete schon 1988 eine Schlagzeile in der IT-Fachpresse, als es um die Vorläufergeneration von „Industrie 4.0“ ging. Damals sprach man noch von „Computer Integrated Manufacturing“ (CIM) und von Systemen für die Produktionsplanung und -steuerung (PPS), die im Sinne des „Enterprise Resource Planning“ in ein übergreifendes IT-System integriert wurden. Zeitgleich wurden die bisher aus IT-Sicht autonomen Werke und Filialen vernetzt und damit besser eingebunden.

Dies ist ein Artikel aus unserer Print-Ausgabe 1/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Damals wie heute war vor allem „die Integration nach unten“ entscheidend für den Erfolg von ClM- bzw. Industrie-4.0-Konzepten. Werks- oder Leitstandsrechner, heute sagt man „Edge-Computer“, verarbeiten die Planungsdaten und übernehmen die Echtzeitsteuerung auf Basis aller Feedback-Daten von Maschinen und Mitarbeitern, während der Zentralrechner nach wie vor die Stammdaten verwaltet und die Grobplanung übernimmt. Zentrale ERP-Systeme sind damals wie heute überfordert, wenn es um den Durchgriff auf Fertigungsmaschinen oder Rückmeldungen vom Shopfloor geht. Edge Computing übernimmt daher eine Integrationsfunktion. Dazu befragte IT-MITTELSTAND zwei Experten.

ITM: Das sogenannte Edge Computing soll die Datenflut in modernen Fabriken bändigen helfen. Wie kann das gelingen?
Walter Graf: Entscheidend ist, wofür die Daten benötigt werden. Meist stehen dabei zwei Aspekte im Vordergrund: erstens Daten zu sammeln, um neue Erkenntnisse zu gewinnen, etwa bei der Analyse von Fehlerbildern für Predictive Maintenance, und zweitens Daten zwecks weiterer Automatisierung dezentral im Rahmen von sogenannten „Cyber Physical Systems“ zwischen Maschinen auszutauschen – auch über Firmengrenzen hinweg.

Damit steht zunächst eine möglichst vollständige Datengewinnung aus der Fertigung im Vordergrund. Die daraus resultierende Herausforderung besteht darin, diese Daten ihrer Bestimmung (z.B. einer Analyseplattform) zuzuführen. Eine Edge-Plattform kann die Daten filtern und kanalisieren, sodass die Datenabnehmer und die Netzwerke – inklusive der Verbindung in die Cloud – nicht überfordert werden. Alternativ besteht auch die Möglichkeit, die Datenabnehmer direkt auf einer Edge-Plattform in unmittelbarer Nähe zur Fertigung zu implementieren. Ein Beispiel dafür ist eine optische Qualitätskontrolle, die mit entsprechend umfangreichen Bild- oder Videodaten arbeitet. Die Analysten von Gartner sagen vorher, dass bis 2020 etwa 60 Prozent der Analytikaktivitäten auf diese Weise lokal betrieben werden.

Elvira Wallis: Im Rahmen von Internet der Dinge (IoT) und Industrie 4.0 stellt sich seit einiger Zeit immer häufiger die Gretchenfrage: Ist die Cloud für die anfallenden, riesigen Datenmengen überhaupt ausgelegt? Sind denn alle anfallenden Daten für die Cloud relevant? Sind die Latenzzeiten entsprechend niedrig, um diese Datenflut noch in Echtzeit zu bewältigen?

Sollen also alle Daten, die eine vernetzte Maschine mittlerweile produziert, direkt zur Auswertung in die Cloud wandern oder ist es sinnvoll, diese Daten direkt lokal im oder am Gerät zu persistieren, vorzufiltern und dann zu verarbeiten, damit lediglich relevante Daten an die Cloud übergeben werden?

Daten, die ein gewisses „Grundrauschen“ erzeugen, werden vor Ort eliminiert, das Datenvolumen, das in die Cloud wandert, wird deutlich reduziert. Die Bearbeitung von Daten dort, wo sie auftreten, am Entstehungsort, das ist Edge Computing. Und das hat für die Befürworter einen weiteren Vorteil: Es gehen weniger kritische Daten in die Cloud. Allein dieser Aspekt ist für viele Firmen ein guter Grund, auf Edge Computing zu setzen. Dabei ist Edge Computing als Erweiterung bestehender Netzarchitekturen zu verstehen, nicht als deren Ablösung.

ITM: Werksrechner vor Ort bewähren sich ja schon seit über 30 Jahren. Was ist das Neue bzw. grundsätzlich Andere an den sogenannten Edge-Computern?
Wallis: Neu ist beispielsweise, dass Daten über mehrere Produktionswerke aggregiert werden können. Neu ist auch, dass eben Daten in die Cloud übergeben werden können, um dann in der Cloud Modelle zu schärfen, zu verbessern sowie holistischere Modelle an die Edge zurückzuspielen. In der Cloud kann man diverse Regeln definieren, sie durchspielen und dann an die Edge zurückspielen, wo sie letztlich zur Ausführung kommen.

Das zeigt deutlich: Die Edge verarbeitet zeitkritische Daten, die Cloud dagegen ruft Daten ab, analysiert sie, verarbeitet sie weiter und sendet Ergebnisse zurück. Beide Bereiche arbeiten Hand in Hand. Selbst der Einsatz von maschinellem Lernen kann direkt live am Netzwerkrand stattfinden.

Graf: Die Edge arbeitet als Bindeglied zwischen den Maschinen in der Produktion (Operational Technology, kurz OT) und der IT. Bislang gab es eine klare Trennlinie zwischen der OT, die durch IT-Technologie angereichert ist, und der IT-Infrastruktur, die den Zugang zu allen klassischen IT-Diensten sowie dem Internet ermöglicht. Diese Trennlinie zu überwinden ist eine der Aufgaben einer Edge-Infrastruktur.

Sogenannte OT-IT-Gateways helfen hier, einen sicheren Datenverkehr zu ermöglichen: Ein Edge-Computer kann einerseits in der rauen Umgebung einer Fabrik arbeiten, hat aber andererseits klassische IT-Sicherheitsmerkmale wie IT-wartbare Betriebssysteme, regelmäßige Updates oder sichere Ablaufumgebungen. Er versteht die Protokolle der Maschinen und kann sie in die Protokolle übersetzen, die im Internet gebraucht werden. Entscheidend ist dabei nicht nur die Hardware, sondern auch der Software-Stack, der eine gesamte Infrastruktur umfassen kann – inklusive der Orchestrierung der einzelnen Services über einen Edge-Rechnerverbund und eines Standardisierens der Datenformate über alle Systemgrenzen hinweg.

ITM: Was sind die wichtigsten Voraussetzungen in puncto Infrastruktur und Connectivity, die im Werk geschaffen werden müssen, damit Edge-Computing die gewünschten Erfolge zeitigt?
Wallis: Die Einstiegshürde für Edge Computing in den Werken ist relativ niedrig, denn es reicht aus, lokal ein Gateway, also eine Verbindung zu den Maschinen, einzurichten. Somit müssen nicht alle Maschinen mit der Cloud „sprechen“. Es genügt diese lokale Verbindung via Gateway, um mit der Cloud zu kommunizieren. Dieses Szenario impliziert, dass OT und IoT zusammenarbeiten müssen. Und es bedeutet auch, dass wir mit Edge einen Ansatz für Bestandskunden haben, die bereits seit Jahren in ihren Werken Prozesse digitalisiert haben. Wir sprechen hier von einem „brownfield approach“, also dem Ansatz, dass sich neu entwickelte Software in ein bestehendes Software- und Architekturkonzept eingliedern muss.

Graf: Da die Edge das Bindeglied zwischen OT und IT ist, muss sie die Datenverbindung zwischen ihnen gewährleisten und zudem für Sicherheit sorgen. Sie ist dabei nicht auf einen einzelnen Rechner beschränkt, sondern stellt vielmehr ein Konzept dar, in welchem Sicherheit und Konnektivität kosteneffizient gewährleistet werden.

Daneben nimmt die Edge wichtige Dienste beim Pre-processing und beim Weiterleiten von Daten bis hin zur Bereitstellung von Anwendungen für Analytik, Künstlicher Intelligenz, Machine Learning oder dem Advanced Condition Monitoring wahr. Entscheidende Faktoren sind dabei die Umsetzung der Edge-Funktionen in einer container- und VM-basierten Umgebung inklusive eines zentralen Managements, über das Dienste erzeugt und zwischen den einzelnen Hardware-Instanzen bewegt werden können. Und zweitens ein standardisiertes Datenmodell bzw. -protokoll, welches die Datenqualität in einheitlichem Format gewährleistet und die Basis für eine effektive Datenkommunikation in Richtung aller involvierten IT-Plattformen sicherstellt.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok