Digitalisierte Daten schützen

Fehlerhaften Datentransfer vermeiden

Immer mehr Unternehmen verlassen sich bei der Steuerung geschäftskritischer Prozesse auf digitalisierte Daten. Darum ist es wichtig, dass die Daten sicher durch das Unternehmen geleitet werden.

Mittlerweile bilden Daten in jeder Branche die Grundlage des Business, seien es Finanzdienstleister, Telekommunikationsanbieter oder Automobilhersteller. Die termingerechte Übertragung von Daten ist unerlässlich. Schon ein fehlerhafter Datentransfer kann fatale Folgen haben: Wenn Daten ihr Ziel nicht erreichen, werden Vorgaben nicht eingehalten und kritische Prozesse nicht ausgeführt. Der reguläre Geschäftsbetrieb kann erst wieder nach der Lösung des Problems aufgenommen werden. Dies lässt sich verhindern – indem Technologien eingesetzt werden, die auf Business-Ebene greifen. Ratsam ist hierbei ein zentrales Cockpit, dass die Daten bequem verwaltet und überwacht. Zudem sollten echtzeitbasierte Informationen bereitgestellt werden, die Aufschluss zu den Übertragungspfaden der Daten geben.

In den Medien wird immer wieder über Unternehmen berichtet, die ihre Daten nicht vor externen Angriffen schützen konnten. Über die Auswirkungen von interner Datenkorruption und fehlerhaften Datentransfers wird jedoch nur selten gesprochen. Erst kürzlich wurden Millionen von Kontodaten und Kennwörtern einer Bank entwendet. Auch der Heartbleed-Bug ist noch präsent. Doch was geschieht, wenn es interne Probleme gibt? Was passiert, wenn zu wenig in Technologien investiert wird, die für sichere und zuverlässige Datenübertragungen sorgen können?

FTP: Gestrandet in der Datenwüste

Regelmäßig schlagen automatisierte Datentransfers via FTP (File Transfer Protocol) fehl. Die Folgen reichen bis hin zu Umsatzeinbußen. Manche Dateien kommen an, andere nicht. Banken beispielsweise, die sich auf FTP verlassen, wissen häufig nicht genau, welche Zahlungen erfolgt sind und welche nicht. Im Prinzip können sie warten und darauf hoffen, dass alles klappt und keine Dateien verloren gehen. Da aber niemand genau weiß, welche Zahlungen und Überweisungen erfolgreich waren, werden Service Level Agreements (SLAs) verletzt – bevor jemand die fehlerhafte Datenübertragung überhaupt bemerkt. Das Ergebnis: eine Schädigung des Rufs und des Vertrauens von Kunden in ihre Bank.

Nach der Ermittlung des Fehlers müssen viel Zeit und Geld für die Verfolgung der fehlenden Datei, die Freigabe der Übertragung und die Behebung von Inkonsistenzen aufgewendet werden, die die falsch platzierte Datei im Datenfluss verursacht. Anschließend muss man herausfinden, warum der Transfer fehlgeschlagen ist und wie sich das Problem lösen lässt. Dieser Vorgang kann Monate dauern. Außerdem wartet bereits der nächste Fehler. In diesem Fall muss das Verfahren wiederholt werden. Fehlerhafte Übertragungen führen also nicht nur zur Verletzung von SLA-Zielen und Reputationsverlusten, sondern auch zu niedrigeren Gewinnen. Der Grund: Die Suche nach der fehlenden Datei sowie die Lösung des Problems kosten eine Menge Zeit und Geld.

Abheben – mit Echtzeitdaten und einer schnellen Einrichtung

Unabhängig von der Branche reicht es nicht, wenn Unternehmen Datenprobleme erst im Nachhinein erkennen. In diesem Fall ist der Schaden längst eingetreten. Um Gewinne schützen und eine reibungslose Bereitstellung von Daten gewährleisten zu können, benötigen alle Teams, die für die Verwaltung von Datenflüssen verantwortlich sind, Informationen über den aktuellen Betrieb. Sie müssen Anomalien in dem Moment identifizieren, in dem sie auftreten. Veraltete Informationen über Fehler helfen nicht weiter. Mit dem richtigen Wissen können Datenverwaltungsteams schneller reagieren und das Schadenspotential fehlerhafter Datenflüsse spürbar reduzieren. Davon profitieren nicht nur die Unternehmen, sondern auch Kunden.

Unternehmen sind jedoch nicht nur auf Betriebsdaten angewiesen. Die Einrichtung neuer Datenflüsse war bislang ein zeitraubendes und kompliziertes Verfahren. Durch eine zentrale Governance-Lösung lässt sich die Einrichtungszeit von Wochen auf wenige Minuten verkürzen, da Unternehmen ein Cockpit für die Kontrolle und Überwachung nutzen können. Im Sinne einer Operational Intelligence können mit einem zentralen Governance-Cockpit für die Datenverwaltung zuständige Mitarbeiter in 15 Minuten neue Datenflüsse einrichten (sowohl intern als auch extern). Unter Verwendung einer einheitlichen Governance-Plattform können Teams im gesamten Unternehmen regelkonforme Datentransfers einrichten, über die alle Beteiligten Bescheid wissen. So lassen sich Fehler leichter erkennen und beheben.

Ein ruhiger Flug

In den letzten Jahren spielte die Datenproblematik eine tragende Rolle. Besonders betroffen waren Mitarbeiter, die für die Sicherung und zuverlässige Übertragung von Daten zuständig sind. Mit der Digitalisierung von Daten haben sich auch die File-Transfer-Technologien weiterentwickelt. Managed-File-Transfer-Software (MFT) wird anstelle von FTP zunehmend als sichere und umfassende Alternative eingesetzt. So können Unternehmen große Dateimengen für geschäftskritische Prozesse übertragen. Nun wurde MFT um zentrale Governance-Lösungen erweitert, die auf der geschäftlichen Ebene wichtige Daten zum Betrieb bereitstellen. So profitieren Unternehmen im Hinblick auf ihre Datenflüsse von End-to-End-Sichtbarkeit sowie maximaler Sicherheit und Kontrolle. Die Ausgaben für die Einrichtung von Datenflüssen und die Behebung von Problemen lassen sich spürbar reduzieren.

Mit fundierteren Informationen über den Datenstrom im Unternehmen können Mitarbeiter die Kontrolle zurückgewinnen und dafür sorgen, dass die Daten eine sichere Reise antreten und pünktlich am Zielort ankommen.

www.axway.de
www.soatothecloud.com

Bildquelle: Thinkstock/ iStock

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok