Was die Digitalisierung bringt

Neue Anforderungen an die Storage-Infrastruktur

Die Digitalisierung in Unternehmen verändert die Anforderungen an die Speicherinfrastruktur. Eine Vielzahl an Daten muss gespeichert und schnell verfügbar sein. „Um diesen Anforderungen gerecht zu werden, sollten sich Unternehmen genau überlegen, wie groß das zu verwaltende Datenvolumen sein wird, wie lange die Daten archiviert werden müssen und mit welchen Kosten geplant werden muss“, so Franz Lin, Marketing Director, JEHE Technology Development bei Giada, im Interview.

Franz Lin, Giada

„Ohne ein ausgeklügeltes Storage-System kann die Virtualisierung von Servern nicht erfolgreich gelingen“, betont Franz Lin von Giada.

IT-DIRECTOR: Herr Lin, sind die digitalisierten Dokumente besser in der Cloud oder auf einem physischen Speichermedium (Magnetband, optischer Datenträger, etc.) aufgehoben? Wo sehen Sie die Vor- und Nachteile der jeweiligen Speichermethode?
F. Lin:
Cloud- und physische Speicherlösungen bringen unterschiedliche Vorzüge mit sich. Häufig sind in Unternehmen auch Hybrid-Lösungen im Einsatz, die einen Cloud-Speicher mit einem physikalischen Speichersystem verbinden. Werden digitalisierte Dokumente in der Cloud gespeichert, kann flexibel und ortsunabhängig auf die Daten zugegriffen werden; zudem lassen sich auch auf unterschiedlichen Endgeräten gespeicherte Dokumente jederzeit abrufen.

Die Bereitstellung und Betreuung von Speichersystemen sowie die Installation von Software, Wartungen, Backups oder Updates der IT-Infrastruktur entfallen bei der Nutzung von Cloud-Diensten. Einen weiteren positiven Aspekt stellt die flexible und kurzfristige Erweiterung des Speicherbedarfs dar. Zudem ist Sicherheit wichtiges Thema beim Einsatz von Cloud-Lösungen in Unternehmen. Vor allem bei der Speicherung hochsensibler Daten sollte besonders viel Wert auf eine End-to-End-Datenverschlüsselung gelegt werden.

Kommen im Unternehmen physische Speichermedien zum Einsatz, werden gespeicherte Inhalte nicht an externe Anbieter weitergegeben, sondern verbleiben im Unternehmen. Dies bietet sich vor allem für hochsensible Daten an. Denn damit hat das Unternehmen die komplette Hoheit über seine Daten und ist nicht von der Leistung oder Verfügbarkeit externer Dienstleister abhängig.

IT-DIRECTOR: Welche Storage-Methoden eignen sich am besten für eine Langzeitarchivierung von Dokumenten und warum?
F. Lin:
Die gesetzlichen Vorschriften für die Archivierung von Dokumenten in Unternehmen sind zahlreich. Je nach Branche existieren verschieden lange Vorgaben in Bezug auf eine Langzeitarchivierung. Damit elektronische Daten auch nach über 30 Jahren noch lesbar sind, müssen spezielle Vorkehrungen getroffen werden. Eine entscheidende Rolle spielt dabei sowohl das Archivierungsmedium als auch das Dateiformat. Nach Studien der Marktforschungsgesellschaft ESG dominieren in Bezug auf die gespeicherte Datenmenge drei Speichermedien: externe und interne Festplatten sowie Tapes.

Müssen Daten über längere Zeiträume aufbewahrt werden, sollte neben dem passenden Archivierungsmedium auch auf die entsprechenden Schreib- und Lesesysteme geachtet werden. Die Hauptproblematik liegt hier in der Haltbarkeit von Speichermedien wie Magnetbändern, Festplatten, Flash-Speichern oder DVDs. Nur wenige gesicherte Daten sind über die Lebensdauer dieser Medien verfügbar. Die Haltbarkeit von optischen Medien liegt zwischen zehn und 30 Jahren, die von Festplatten bei ca. fünf Jahren. Magnetbänder können hingegen Daten für 30 Jahre oder länger speichern.

Als Anwender sollte in jedem Fall darauf geachtet werden, ein regelmäßiges „Refreshing“ vorzunehmen, also wichtige Daten auf neue Medien umzukopieren. Bei optischen Medien und Bändern sollte alle fünf Jahre eine Sicherheitskopie gemacht werden. Ein wichtiger Punkt, der bei einer Langzeitarchivierung bedacht werden muss, ist die Verfügbarkeit bestimmter Hard- und Software, die für das Lesen der archivierten Daten nötig ist. Es sollte auf Software geachtet werden, die offenen Standards folgt. Auch bei den verwendeten Dateiformaten sollte, wenn möglich, auf offene Standards zurückgegriffen werden, z.B.: TIFF, PNG, XML oder PDF/A.

Grundsätzlich eignen sich für eine physische Langzeitarchivierung am besten Magnetbänder. Langlebigkeit, das vergleichsweise zur Festplatte deutlich besseres Preis-/Leistungsverhältnis pro Terabyte Speicherplatz sowie geringerer Strombedarf sind überzeugende Argumente. Dennoch ist klar, Magnetbänder spielen besonders dort eine wichtige Rolle, wo Daten nicht schnell mal wiederhergestellt werden sollen, sondern nur in Ausnahmefällen. Die Speicherung von Daten in der Cloud erscheint aufgrund der Kostenvorteile oft als vielversprechende Alternative zu physischen Archivierungslösungen. Problematisch hierbei kann jedoch sein, dass der gewählte Cloud-Anbieter auch nach einem langen Zeitraum noch existieren muss.

IT-DIRECTOR: Welche Rolle spielen an dieser Stelle Standards und ISO-Normen oder dergleichen?
F. Lin:
Bei der Datenarchivierung sollte vor allem darauf geachtet werden, herstellerunabhängige Standards zu verwenden. Diese sollten zudem von anerkannten Organisationen wie der ISO und dem W3C spezifiziert sein, wie z.B. ASC II, Unicode, SVG oder XSL. Einige herstellerabhängige Formate haben sich dabei auch als Quasi-Standards am Markt durchgesetzt – so z.B. das PDF-Format. 2005 hat die ISO das Format PDF/A-Format (A=Archiv) sogar als Standard für die Langzeitarchivierung von Dokumenten zertifiziert.

IT-DIRECTOR: Wie können Großunternehmen ihre Speicherinfrastruktur strategisch weiterentwickeln, um zukünftige Anforderungen abzudecken? Wie sollten Unternehmen hier vorgehen?
F. Lin:
Die Digitalisierung in Unternehmen verändert auch entsprechend die Anforderungen an die Speicherinfrastruktur. Eine Vielzahl an Daten muss gespeichert und schnell verfügbar sein. Um diesen Anforderungen gerecht zu werden, sollten sich Unternehmen genau überlegen, wie groß das zu verwaltende Datenvolumen sein wird, wie lange die Daten archiviert werden müssen und mit welchen Kosten geplant werden muss. Hierfür bietet es sich an, das Speicherverhalten innerhalb des Unternehmens über längere Zeit zu beobachten, z.B.: Welche Dateiformen werden erstellt und wie viel Speicherkapazität benötigen diese? Auf dieser Grundlage lässt sich eine fundierte Speicherstrategie entwickeln, die die Leistung, die Speicherverfügbarkeit sowie die Kosten berücksichtigt und damit den Anforderungen des Unternehmens Rechnung trägt.

IT-DIRECTOR: Welche Faktoren beeinflussen Ihrer Meinung nach die zukünftigen Entwicklungen am Storage-Markt?
F. Lin:
Ein wichtiger Faktor, die die zukünftigen Entwicklungen zunehmend beeinflussen wird, ist das Thema „Virtualisierung“. Ohne ein ausgeklügeltes Storage-System kann die Virtualisierung von Servern nicht erfolgreich gelingen. Der lokale Festplattenspeicher genügt dabei meist nicht für anspruchsvolle Systeme, um höchste Anforderungen hinsichtlich Hochverfügbarkeit, dynamischer Lastverteilung, Ausfallsicherheit und Automatisierung zu erfüllen. Die Integration eines Server-Motherboards, das speziell auf Hochverfügbarkeit und Zuverlässigkeit sowie hohe Speicherkapazität ausgelegt ist, schafft ideale Voraussetzungen für eine erfolgreiche Virtualisierung.

Bildquelle: Giada

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok