Das Internet der Zukunft

Was passiert hinter den Kulissen?

Das Internet der Zukunft wird bereits heute von Menschen und Technologien gestaltet. Ein Blick hinter die Kulissen offenbart wichtige Details >>>

Blick hinter die Kulissen

Ein Blick hinter die Kulissen des Internets offenbart wichtige Details.

Das Internet steht für eine kritische Infrastruktur, dessen weitere Entwicklung Kultur, Wirtschaft, Politik und den privaten Lebensraum der meisten Menschen beeinflussen wird. Gleichzeitig muss das weltumspannende Netz selbst aber auch immer wieder an Entwicklungen und neue Anforderungen angepasst werden, um mit gegenwärtigen Innovationen schrittzuhalten. Christoph Dietzel, verantwortlich für Research and Development bei De-Cix, dem Betreiber des weltgrößten Internet-Knotens in Frankfurt, arbeitet und forscht an der Basis des Internets und gibt einen Einblick, wie er sich das Netz der Zukunft vorstellt: „In unserer digitalisierten fließen immer größere Datenströme unablässig um die Welt. Die Technologien der Zukunft, wie Künstliche Intelligenz (KI), virtuelle Realität und viele mehr, brauchen Vernetzung als unverzichtbare Grundlage. Digitalisierung ohne Netzwerk ist nicht möglich. Deshalb ist es so wichtig, dass wir uns mit der Zukunft des Internets – auch auf der Ebene der Basisinfrastruktur – beschäftigen.“

Auf Anwenderseite gibt es in den letzten Jahren eine immer rasantere Entwicklung der Internet-Nutzung. Gründe dafür sind die Zunahme des Online-Shoppings, die immer weitere Verbreitung von Mobilgeräten oder die steigende Nutzung von Streaming-Diensten. Heutzutage gibt es kaum einen Alltagsbereich, der nicht in irgendeiner Form mit dem Internet verbunden wäre. Doch was geschieht währenddessen im „Backend“ des Internets, hinter den Kulissen im Rechenzentrum?

Auf den ersten Blick kommen die Entwicklungen hier relativ unspektakulär daher. Laien dürfte es schwerfallen, ein Rechenzentrum aus dem Jahr 1998 von einem heutigen zu unterscheiden. Ein Unterschied, der noch relativ offensichtlich ist, ist das Verschwinden des Kupfers: Heute wird fast ausschließlich mit Glasfaserleitungen gearbeitet.

Generell lässt sich die Weiterentwicklung der Basis des Internets mit Elektrizität vergleichen: Man braucht keinen „anderen“ Strom, um eine simple Glühbirne oder eine hochmoderne Fabrik zu betreiben – nur viel mehr. Im Grundsatz bedeutet das, neue Anwendungen produzieren keine neue Art von Traffic, dafür aber in der Regel viel, viel mehr. Außerdem erhöhen sich die Anforderungen der neusten Anwendungen: Nur sehr geringe Latenzzeiten und eine absolut sichere Übertragung tragen diesen kommenden Generationen der Applikationen Rechnung.

Dabei erkennt Christoph Dietzel in den weltweiten Rechenzentren aktuell einen „Scale-out-Ansatz“. Das heißt, bestehende Infrastrukturen werden in die Fläche erweitert, um mit den wachsenden Anforderungen mitzuhalten. Um die Größe der Nutzfläche innerhalb von Rechenzentren zu steigern, wird kontinuierlich an einer höheren Integration der Übertragungstechnik gearbeitet und eine Automatisierung durch Roboter, die auf engstem Raum arbeiten, vorangetrieben. Dabei werden völlig neue Ansätze für den kompletten Betrieb bereits akademisch exerziert. Dazu zählen u.a. Rechenzentren, die als Reinraum ausgeführt sind und in denen die Kommunikation nicht mehr in Glasfaserleitungen abläuft, sondern über Lichtimpulse, die an einer spiegelnden Decke reflektiert werden.

Wann kommt die Quantenkryptographie?


An einer anderen Entwicklung wird derzeit geforscht: So ist es österreichischen und chinesischen Forschern 2017 gelungen, eine durch Quantenkryptographie verschlüsselte Datenverbindung herzustellen. Diese Methode macht sich den Effekt der Verschränkung auf Teilchenebene zunutze. Aus auf diese Weise verbundenen Photonen wird ein Quantenschlüssel erzeugt und von einem Satelliten aus an Sender und Empfänger gesendet. Beim Versuch, diesen Schlüssel abzufangen, bemerken dies – aufgrund des Verschränkungseffekts – beide Parteien. Die Übertragung kann dann abgebrochen werden. Bei dieser Methode werden allerdings nur die Schlüssel via Satellit ausgetauscht, der Datenverkehr findet weiterhin in herkömmlichen Leitungen statt.

Aktuell gibt es enorme Fortschritte in der Übertragungstechnologie, bereits heute sind bei De-Cix beispielsweise 400-GE-Ports im Einsatz. Der Schritt zur Tausendermarke ist auch nur noch eine Frage der Zeit, die Planungen und Standardisierung innerhalb der IEEE dafür sind schon im Gange. Man kann demnach davon ausgehen, dass die Grundlagen der Übertragungstechnik in absehbarer Zeit eine weitere innovative Evolution erleben, jedoch nicht von einer revolutionären Technologie verdrängt werden. „In diesem Rahmen werden wir die bestehende Technologie weiter skalieren. Dazu kann man auf das bewährte Mittel der Replikation zurückgreifen, ähnlich wie es bereits bei Prozessoren geschieht. Mit dem Ende des Mooreschen Gesetzes näherte sich die Optimierung der Rechenkerne ihrer Grenze, also kamen Mehrkernprozessoren auf den Markt. Ähnlich geht man auch in der Netzwerktechnik vor, die hauchdünnen Glasfasern lassen sich glücklicherweise sehr leicht replizieren“, betont Christoph Dietzel.

Globales Denken, regionales Surfen


Internet und Globalisierung gehören zusammen. Seitdem das Web die Kommunikation revolutioniert hat, wächst die Welt schneller denn je zusammen. Doch gerade um die zukünftige Entwicklung des Internets zu unterstützen, sollte man lokaler denken. Anwendungen wie Virtual Reality und 8K-Inhalte benötigen immer größere Datenmengen, erlauben aber gleichzeitig immer geringere Latenzzeiten. Bei Virtual-Reality-Anwendungen liegen diese im Bereich von 20 Millisekunden – zum Vergleich: ein Blinzeln dauert 150 Millisekunden. Will man solche Anwendungen großflächig umsetzen, zwingt die Physik dazu, mit den Daten näher an die Nutzer heranzugehen. „Seit Albert Einstein wissen wir, dass sich nichts im Universum schneller als das Licht bewegen kann, also auch Daten nicht. Die enorme Geschwindigkeit von 300.000.000 Metern pro Sekunde wäre immer noch zu langsam, um hochauflösende VR-Inhalte, die in den USA gehostet sind, in Deutschland ohne Ruckeln wiederzugeben“, so Dietzel.

Bereits in den vergangenen zehn Jahren hat sich die Struktur des Internets verändert, Anbieter haben bereits eigenes Equipment zum Zwischenspeichern von Inhalten in den Endkundennetzen und bringen somit ihre Daten näher an den Konsumenten. Was heute in regionalen Telekommunikations-Hubs, wie London, Amsterdam oder Frankfurt geschieht, müsste für eine großangelegte VR-Nutzung, z.B. in autonomen Fahrzeugen, großflächig und dichter ausgedehnt werden, auch in ländliche Regionen.

Rasante Entwicklung, langsame Standardisierung


Zu erwähnen ist auch das Internet der Dinge (IoT). Schätzungen gehen davon aus, dass die Anzahl vernetzter Geräte bereits im nächsten Jahr die Marke von 20 Milliarden überschreiten könnte und 2022 rund 50 Milliarden erreichen könnte. Schon heute dürfte es mehr vernetzte Geräte auf der Welt geben als Menschen. „Dabei verwenden wir praktisch nur ein einziges Netzwerkprotokoll, de facto basiert das gesamte Internet auf dem Internet Protocol (IP)“, erklärt Christoph Dietzel. Der heute noch dominierende IPv4-Standard verwendet 32-Bit-Adressen, das heißt es sind 2 32, also etwa 4,3 Milliarden verschiedene Adressierungen möglich. Damit könnte man also ungefähr jedem zweiten Menschen eine eigene IP zuweisen, ganz zu schweigen von den vielen Computersystemen die ins Internet müssen. Das ist natürlich nicht erst seit gestern bekannt und ein neues 128-Bit-Format besteht im Grunde seit 1998. Dieser neue IPv6-Standard bietet einen Adressraum von 2 128, was etwa 340 Sextillionen entspricht. Damit müsste man sich keinerlei Sorgen machen, dass dem Internet der Dinge die Adressen ausgehen. Messungen am De-Cix zeigen allerdings, dass allerdings erst nur etwa fünf Prozent des Traffics dem neuen Standard entsprechen.

Dies ist ein Artikel aus unserer Print-Ausgabe 5/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Das Beispiel zeigt: Um die Bits, die sich durch die Internet-Infrastruktur bewegen, zu strukturieren und dann auf der Gegenseite zu interpretieren bedarf es der Nutzung standardisierter Protokolle. Diese findet für das Internet innerhalb der sogenannten Internet Engineering Task Force (IETF) statt. Umstellungen und Neueinführungen im Internet dauern so lange, weil die verschiedenen Akteure, teilweise entgegen ihrer finanziellen und politischen Interessen, einen Konsens finden müssen. Eine technologische Antwort, um dem zu begegnen könnte die zurzeit aufkommende frei programmierbare Netzwerkausrüstung sein. Im Gegensatz zu der bisherigen Generation, in der nur eine Konfiguration der standardisierten Protokolle stattfindet, kann die Verarbeitung der Datenströme und Pakete mittels Software definiert werden. Das ermöglicht es Teilnetzen, mittelfristig eigene Protokolle zu entwickeln und in geschlossenen Domänen einzusetzen.

Bildquelle: Getty Images / iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok