Papierarchive schrumpfen

Diese Storage-Systeme werden überleben

Digitalisierte Dokumente ­werden sowohl auf physischen Storage-Systemen wie auch in der Cloud gespeichert. Doch welche Speichermethoden wird es auch in 20 Jahren noch geben, auf welche sollte man besser verzichten?

Papierarchiv

In Großunternehmen sollen Papierarchive kaum noch eine Rolle spielen.

Natürlich wird das eine oder andere Unternehmen noch einen Keller voller Akten haben, die sich über Jahre angesammelt haben. Doch in Großunternehmen sollen solche Papierarchive kaum noch eine Rolle spielen. Gemäß der gesetzlichen Bestimmungen rund um das Thema „E-Akte“ seien größere Betriebe schon früh dazu übergegangen, ihre Geschäftsvorgänge zu digitalisieren und ein Verwaltungssystem für elektronische Unterlagen zu implementieren, meint Markus Hollerbaum. Die Digitalisierung in Großunternehmen sei dabei sicher weiter vorangeschritten als in kleinen und mittelständischen Betrieben, so der Geschäftsführer der Siewert & Kau Service GmbH. „Das liegt nicht zuletzt daran, dass kleinere Firmen oftmals noch nicht über die entsprechende Hardware und IT-Infrastruktur verfügen.“ So werden Dokumente häufig lokal vom eigenen Rechner aus gescannt und abgelegt, ohne in einen zentralen Backup-Prozess eingebunden zu sein. Allerdings treiben gesetzliche Richtlinien das Thema „Digitalisierung“ voran, sodass auch Mittelständler langsam nachziehen und der Bedarf an zuverlässigen und bedienfreundlichen Scanlösungen steigt.

Vor allem im Gesundheitswesen werden Dokumente heute schon fleißig digitalisiert und archiviert. Dabei fallen riesige Datenmengen an – Stichwort „Big Data“ –, für die es eine durchdachte Speicher- und Aufbewahrungsstrategie geben muss. Das stellt für das gesamte Gesundheitswesen natürlich eine riesige Herausforderung dar. „Die Weichen für die Datenspeicherung der Zukunft müssen zu Beginn gestellt werden“, betont Manfred Wania, Solution Engineer Central Europe bei Falconstor, „um teure Fehlinvestitionen zu vermeiden.“

Grundsätzlich entscheidend ist es, ob die Daten auf physischen Speichermedien oder in der Cloud abgelegt werden – beide Lösungen bringen ihre Vor- und Nachteile mit sich. Werden digitalisierte Dokumente beispielsweise in der Cloud gespeichert, können die Anwender flexibel und ortsunabhängig auf ihre Daten zugreifen. Zudem lassen sich die gespeicherten Daten auch auf unterschiedlichen Endgeräten jederzeit abrufen. Die Bereitstellung und Betreuung von Speichersystemen sowie die Installation von Software, Wartungen, Backups oder Updates der IT-Infrastruktur entfallen bei der Nutzung von Cloud-Diensten. „Einen weiteren positiven Aspekt stellt die flexible und kurzfristige Erweiterung des Speicherbedarfs dar“, weiß Franz Lin, Marketing Director, JEHE Technology Development bei Giada. Zudem sei die Sicherheit ein wichtiges Thema beim Einsatz von Cloud-Lösungen in Unternehmen. Vor allem bei der Speicherung hochsensibler Daten – wie sie etwa im Gesundheits- oder Bankenwesen anfallen – sollte besonders viel Wert auf eine Ende-zu-Ende-Datenverschlüsselung gelegt werden. Bernd Widmaier, Vertriebsleiter der Starline Computer GmbH, scheint eher skeptisch gegenüber der Speicherung von Daten in der Cloud eingestellt zu sein. Unternehmen sollten ihre Daten selbst in der Hand haben, meint er. Sicher könne man sich Gedanken über eine zusätzliche Auslagerung zu einem lokalen Cloud-Anbieter machen, schließlich klinge die Cloud im Vergleich zur Anschaffung eines eigenen Speichers erst einmal verlockend. „Allerdings darf man neben Abhängigkeiten wie Bandbreite und Verfügbarkeit die laufenden Kosten nicht unterschätzen“, warnt der Vertriebsleiter.

Kommen im Unternehmen physische Speichermedien zum Einsatz, werden gespeicherte Inhalte nicht an externe Anbieter weitergegeben, sondern verbleiben in den eigenen vier Wänden. Dies biete sich vor allem für hochsensible Daten an, meint Franz Lin. Denn damit habe das Unternehmen die komplette Hoheit über seine Daten und sei nicht von der Leistung oder Verfügbarkeit externer Dienstleister abhängig. „Gewisse Daten dürfen aus rechtlichen Gründen das eigene Rechenzentrum nun einmal nicht verlassen“, bestätigt Manfred Wania. Außerdem: Auch bei physischen Speichern gibt es durchaus eine breite Palette an passenden Lösungen für jede Unternehmensgröße. „Klassische HDDs sind beispielsweise echte Speichertalente für hohe Datenvolumina“, weiß Markus Hollerbaum. „Flash-Speicher überzeugen durch schnelle Antwortzeiten und eignen sich u.a. zum Datenbank- oder Online-Shop-Einsatz.“

Immer mehr Unternehmen setzen zudem auf sogenannte Hybrid-Lösungen aus Cloud und lokalem Speichermedium. Im laufenden Geschäftsbetrieb erfolgt das Backup lokal und erst nachts werden Daten in die Cloud transferiert, um bei der Größe an Datenmengen keine Einschränkungen bei der Bandbreite hervorzurufen. Dieses Modell soll auch insofern lukrativ sein, als dass Firmen die Vorteile einer Cloud nutzen, sehr sensible Daten jedoch nach wie vor auf physischen Speichern ablegen können.

Tape für die Langzeitarchivierung?


Die Aufbewahrungspflichten für geschäftsrelevante Dokumente stellen Unternehmen vor zusätzliche Herausforderungen im Rahmen der Datenspeicherung. Je nach Branche existieren verschieden lange Vorgaben in Bezug auf die Langzeitarchivierung. Damit elektronische Daten auch nach über 30 Jahren noch lesbar sind, müssen spezielle Vorkehrungen getroffen werden. Eine entscheidende Rolle spielen dabei das Archivierungsmedium und das Dateiformat. Nach Studien der Marktforschungsgesellschaft ESG sollen in Bezug auf die gespeicherten Datenmengen drei Speichermedien dominieren: externe und interne Festplatten sowie Tapes.

Müssen Daten über längere Zeiträume aufbewahrt werden, sollte neben dem passenden Archivierungsmedium auch auf die entsprechenden Schreib- und Lesesysteme geachtet werden. Die Hauptproblematik liegt hier laut Franz Lin in der Haltbarkeit von Speichermedien wie Magnetbändern, Festplatten, Flash-Speichern oder DVDs. „Bei optischen Speichermedien gilt eine Lebensdauer von zehn bis 30 Jahren als realistisch, bei Festplatten sind es etwa fünf Jahre“, konkretisiert Markus Hollerbaum. Magnetbänder könnten indes 30 Jahre oder mehr überstehen.

Nicht nur deshalb empfiehlt Ralf Colbus, Certified Storage Professional bei IBM, vor allem das Magnetband – also Tape – als beste Storage-Methode für die Langzeitarchivierung. „Die Aufzeichnungsdichte im Labor liegt bei sagenhaften 220 TB pro Kassette“, so der Fachmann. „Die Haltbarkeit der Medien liegt deutlich über der der Disk. Der lagernde Energiebedarf eines Bandes beträgt null Watt, elektrische Energie wird nur beim Kassetten-Handling, Beschreiben und Lesen eines Bandes benötigt.“ Das mache sich gerade bei großen Datenmengen, die sehr lange gespeichert werden müssen, bezahlt. In einigen Branchen müssten für bestimmte Daten bis zu 99 Jahre als Archivierungsdauer eingehalten werden. Und: Magnetbänder spielen besonders dort eine wichtige Rolle, wo Daten nicht schnell mal wiederhergestellt werden müssen, sondern nur in Ausnahmefällen. Als Anwender sollte man zudem darauf achten, „ein regelmäßiges ‚Refreshing’ vorzunehmen, also wichtige Daten auf neue Medien umzukopieren“, ergänzt Franz Lin. Bei optischen Medien und Bändern sollte alle fünf Jahre eine Sicherheitskopie gemacht werden.

Ein Blick in die Praxis zeigt, dass sich aktuell noch so gut wie alle bekannten Speichertechnologien in den Unternehmen wiederfinden. „Selbst Tape hat noch jede Menge Fans“, stellt Christoph Spitzer, Senior Systems Engineer bei Tintri, fest. „Prinzipiell werden auch ältere Systeme und Technologien oft noch lange nach der Abschreibung genutzt, da sich Infrastrukturen und Prozesse nicht so einfach ändern lassen.“ Die fortschreitende Virtualisierung stellt hingegen eine echte Zäsur für die meisten Unternehmen dar, da herkömmliche Speicher – mit Technologien für eine physische IT – für die Virtualisierung einfach nicht geeignet sind. Spätestens wenn die Applikationen zu langsam laufen oder der Verwaltungsaufwand überhandnimmt, merken Unternehmen, die schon einen Großteil ihrer Work­loads virtualisiert haben, dass sie auch Speicher für ihr virtuelles Rechenzentrum benötigen.

„Tape is dead“ haben die Festplattenhersteller immer ausgerufen. Doch „so wie es momentan aussieht, wird die Festplatte vorher sterben“, meint Bernd Widmaier von Starline. „Wir sehen recht stabile Verkaufszahlen für Bandlaufwerke.“ Dem stimmt Ralf Colbus zu: „Der vor Jahren eingeleitete Trend ‚weg vom Band’ hat sich aus handfesten Gründen umgekehrt.“ Tape mit Verschlüsselung und Worm-Funktionalität (Write Once, Read Many) sei gefragt. Inzwischen seien sogar Cloud-Provider an IBM herangetreten, um Langzeitarchive in Tape anzubieten.

„Wenn man sich die Entwicklungen der letzten 20 Jahre anschaut, kann sich Unglaubliches tun – eventuell werden Festplatten als Erstes vom Markt verschwinden“, meint Bernd Widmaier. Auch Manfred Wania hält es für möglich, dass es in zehn oder 20 Jahren bestimmte Speicherformate nicht mehr gibt. „Speichertechniken und -formate werden sich sehr rasch weiterentwickeln und deren Lebenszyklus wird immer kürzer. Umso wichtiger wird die Möglichkeit werden, Daten auf neue Technologien zu migrieren.“ Flexibles Datenmanagement mit software-definierter Speicherung, unabhängig von proprietären Speicherformaten, sei hier der Schlüssel zum langfristigen Erfolg.

Im Moment gehe der Trend zu Flash, so Spitzer, weil die virtualisierten Unternehmensapplikationen einfach sehr performance-hungrig seien und Flash auch sonst zahlreiche Vorteile biete – beispielsweise weniger Platz- und Stromverbrauch. Langfristig soll der Trend allerdings in Richtung NVM (Non-Volatile Memory) gehen, der nächsten Stufe von Flash-Speicher.

Migration auf neuere Technologien


Um der Gefahr zu entgehen, dass Daten aufgrund technischer Entwicklungen und neuer Speicherformate in einigen Jahren nicht mehr lesbar sind, sind Anwender gut beraten, Daten rechtzeitig von veralteten auf neue Medien oder gar in die Cloud zu übertragen. Die Archivierungs-Software muss dabei offen sein, damit verschiedene Medien und Protokolle ansprechbar sind, „denn das ist die Voraussetzung der Migration der Archivdaten von einer Technologie auf die neue“, erklärt Ralf Colbus. Eines der größten Probleme bestehe darin, dass bei größeren Datenmengen dieser Migrationsaufwand Monate oder gar Jahre dauern könne. Ohne ISO-Normen hätten wir hier Wildwuchs im Markt. Prinzipiell sind allerdings offene Standards den proprietären vorzuziehen, um die eigenen Daten nicht nur zukunftssicher aufbewahren zu können, sondern sie auch zwischen unterschiedlichen Speicherplattformen hin und her bewegen zu können.

„Hersteller von geschlossenen, proprietären Standards haben daran kein Interesse und möchten die Daten am liebsten in ihrem teuren Datensilo gefangen halten“, weiß Manfred Wania. Deshalb sollte bei der Datenarchivierung vor allem darauf geachtet werden, herstellerunabhängige Standards zu verwenden. „Diese sollten zudem von anerkannten Organisationen wie der ISO und dem W3C spezifiziert sein, wie z.B. ASC II, Unicode, SVG oder XSL“, empfiehlt Franz Lin. Einige Formate hätten sich auch als Quasi-Standard am Markt durchgesetzt – so z.B. das PDF-Format. 2005 habe die ISO das PDF/A-Format (A  =  Archiv) sogar als Standard für die Langzeitarchivierung von Dokumenten zertifiziert.

Storage-Strategie für die Zukunft


Wer für die Zukunft plant, braucht vor allem zwei Dinge: zum einen vorausschauende Analysen, die dabei helfen, zukünftigen Bedarf nicht nur für Kapazität, sondern auch für Workloads präzise vorherzusagen. Zum anderen benötigt man eine Speicherplattform, die flexibel mit den Bedürfnissen des Unternehmens mitwachsen kann, sodass man kein Budget für ungenutzte Speicherressourcen verschwendet. „Bisher war die Beschaffung von Speicher eher ein Ratespiel“, meint Christoph Spitzer. Mit neuen, intelligenten Lösungen wisse man nun vorab, was benötigt wird, und füge quasi in Echtzeit nur die benötigen Ressourcen hinzu.

Dies ist ein Artikel aus unserer Print-Ausgabe 10/2016. Bestellen Sie ein kostenfreies Probe-Abo.

Um sich hinsichtlich zukünftiger Anforderungen bestens aufzustellen, sollten Unternehmen aktiv im Dialog zur technischen Entwicklung bleiben, um rechtzeitig die Weichen zu stellen. Auch die regulatorischen Anforderungen müssen immer wieder überprüft werden. Markus Hollerbaum empfiehlt Unternehmen, sich im Vorfeld der Implementierung neuer Speichersysteme eine Reihe an Fragen zu stellen: „Wie viel Datenvolumen benötigt meine Firma und wie oft müssen die Daten überschrieben werden? Wie sieht es mit der Total Cost of Ownership aus? Und wie viele Daten müssen schnell zur Verfügung stehen?“ Auf dieser Grundlage lässt sich dann eine fundierte Speicherstrategie entwickeln, die die Leistung, Speicherverfügbarkeit sowie Kosten berücksichtigt und damit den Anforderungen des Unternehmens Rechnung trägt.

Bildquelle: Thinkstock/iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok