11.10.2017 Welche Infrastrukturen braucht das IoT?

Checkliste für sichere IT-Infrastrukturen

Von: Frank Strecker

Die Digitalisierung und das Internet of Things (IoT) brauchen zukunftsfähige IT-Infrastrukturen. Doch welche?

Sicherheit und Datenschutz sind die wohl wichtigsten Themen, wenn es um die Entscheidung für die richtige Infrastruktur geht.

Eine aktuelle IDC-Studie zur digitalen Transformation zeigt, dass digitale Vorreiter bereits 16 Prozent ihrer Infrastruktur in der Public Cloud betreiben.

Doch welche Aspekte gilt es zu beachten und worauf darf man keinesfalls verzichten, wenn man eine Rechenzentrumsstruktur aufbaut oder optimiert? Tipps dazu hat Frank Strecker, Senior Vice President bei T-Systems und verantwortlich für das weltweite Cloud-Geschäft der Deutschen Telekom, zusammengefasst:

Cloud und Rechenzentren

Eine aktuelle IDC-Studie zur digitalen Transformation zeigt, dass digitale Vorreiter bereits 16 Prozent ihrer Infrastruktur in der Public Cloud und 27 Prozent in externen Rechenzentren betreiben. So vereinen sie die Vorteile der unterschiedlichen Welten und schaffen ­eine Umgebung, in der sie von Flexibilität, Skalierbarkeit, Kosteneffizienz und Stabilität profitieren. Laut der Studie planen 46 Prozent der deutschen und 38 Prozent der europäischen Unternehmen die Einführung einer Hybrid-Cloud-Lösung. Die IT-Umgebung liegt dabei für 34 Prozent der Befragten hauptsächlich in Deutschland und für 28 Prozent in Europa. Wesentlich für eine zukunftsfähige Infrastruktur ist die richtige Mischung aus Cloud, externen und eigenen Rechenzentren, sodass für jedes Anliegen die richtige Variante gewählt werden kann.

Sicherheit und Datenschutz

Sicherheit und Datenschutz sind die wohl wichtigsten Themen, wenn es um die Entscheidung für die richtige Infrastruktur geht. Eine hybride Landschaft aus eigenen Rechenzentren sowie Private- und Public-Cloud-Lösungen muss professionell orchestriert und abgesichert sein, um Angreifern keine Chance zu geben und Firmendaten bestmöglich zu schützen. Der Bitkom-Cloud-Monitor 2017 zeigt, dass Sicherheitsbedenken noch immer das größte Hemmnis gegen Public Cloud Computing darstellen: 60 Prozent der Unternehmen befürchten unberechtigte Zugriffe auf sensible Informationen. Dabei gab es laut der Studie in den letzten zwölf Monaten häufiger Sicherheitsvorfälle in den internen IT-Systemen (22 Prozent) als in der Public Cloud (19 Prozent).

Dieses Ergebnis unterstreicht, dass es nicht nur darum geht, eine besonders sichere Cloud-Umgebung zu wählen, sondern auch darum, die eigenen Rechenzentren mit allen Mitteln abzusichern, um den unberechtigten Zugriff Dritter zu verhindern. Die Europäische Datenschutz-Grundverordnung (EU-DSGVO) stellt zusätzlich besonders hohe Anforderungen an den Umgang mit personenbezogenen Daten. Entsprechend wichtig ist eine professionelle Orchestrierung, um eine möglichst hohe Transparenz zu schaffen, potentielle Gefahrenquellen vorab zu identifizieren und Lücken gar nicht erst entstehen zu lassen.

Qualität und Verfügbarkeit

Um bei der Digitalisierung mit Kunden, Partnern und Wettbewerbern mithalten zu können, setzen Unternehmen immer mehr auf Innovationsprojekte. 96 Prozent der mittleren und großen Unternehmen weltweit versuchen laut einer CIO-Umfrage von ESG Research ihre Geschäftsmodelle und -prozesse mit innovativen Technologien zu optimieren. Das gelingt allerdings nur bei maximaler Verfügbarkeit und hoher Qualität der Infrastruktur. 77 Prozent der deutschen Befragten sehen jedoch eine Lücke zwischen der Anwendererwartung und den tatsächlich verfügbaren Services. Für 72 Prozent stellen IT-Störungen aufgrund von Infrastrukturausfällen, Netzproblemen, Hacker-Angriffen und Naturkatastrophen ernste Behinderungen für ihre Digitalisierungsinitiativen dar.

Dies ist ein Artikel aus unserer Print-Ausgabe 10/2017. Bestellen Sie ein kostenfreies Probe-Abo.

Neben finanziellen Schäden bedeuten solche Ausfälle sinkendes Kundenvertrauen, Imageverluste und Einbußen bei der Reputation sowie bei der Mitarbeiterzufriedenheit. Um diese Folgen zu vermeiden, sollten Betriebe auf hochverfügbare RZ-Infrastrukturen setzen, die mit maximaler Qualität in Sachen Personal, Technologie und Prozesse betrieben werden. Nicht nur die eigenen Data Center müssen diesen Anforderungen gerecht werden, sondern auch die Cloud-Services externer Anbieter, die eingebunden werden sollen.

Skalierbarkeit und Flexibilität

70 Prozent der deutschen Unternehmen halten es für notwendig, in den nächsten zwei Jahren virtuelle Strukturen umfassend aufzubauen, und 35 Prozent bewerten ihre Digitalisierungsgeschwindigkeit bereits jetzt als hoch – so die Ergebnisse der IDC-Studie zur digitalen Transformation. Dabei sehen 60 Prozent der deutschen Entscheidungsträger hohe Flexibilität und Leistungsfähigkeit der Infrastruktur als kritische Erfolgsfaktoren für den produktiven digitalen Wandel. Entsprechend muss eine zukunftsfähige RZ-Struktur skalierbar und anpassungsfähig sein, um den Ansprüchen der Unternehmen gerecht zu werden. Durch die Verbindung von eigenen und fremden Rechenzentren sowie Cloud-Lösungen kann dies gelingen: Je nach Geschäftssituation können die Ressourcen flexibel angepasst werden und die Skalierbarkeit ermöglicht das agile Ausprobieren neuer Geschäftsideen, beispielsweise in den Bereichen Internet of Things oder Real-Time-Data-Analytics.

Beratung und Managed Services

Um eine hybride Infrastruktur professionell zu managen und sämtliche Bestandteile ideal aufeinander abzustimmen, braucht es Prozesse, Technologie, Erfahrung und fachliches Know-how. Nicht jedes Unternehmen verfügt über die entsprechenden Ressourcen, weshalb sich die Zusammenarbeit mit einem oder mehreren Partnern häufig anbietet. Laut IDC-Studie zur digitalen Transformation lagern 23 Prozent der deutschen Firmen ihre Infrastrukturen an Experten aus – und der Trend steigt auf 27 Prozent in den kommenden drei Jahren. Plattformen helfen den Unternehmen, die Agilität zu steigern und gleichzeitig die zunehmende Komplexität sowie die Kosten zu senken.

Bildquelle: Thinkstock/Wavebreak Media

©2017 Alle Rechte bei MEDIENHAUS Verlag GmbH