Edge on Speed: Infrastruktur für das immersive Internet
Dr. Thomas King, CTO DE-CIX
Unsere Vorstellungen vom Internet der Zukunft sind eng mit der Populärkultur verknüpft. Konzepte aus Star Trek und Matrix bieten uns eine vermeintliche Vorschau auf das immersive Internet: Unsere digitalen Zwillinge, die miteinander in einem täuschend echt wirkenden, dreidimensionalen virtuellen Raum interagieren. Die digital konstruierte Umgebung wirkt dabei so authentisch, dass es schwer ist zu unterscheiden, was „real“ und was programmiert ist. Es gibt viele Fortschritte auf dem Weg zum Internet aus den Science-Fiction-Visionen der Filmemacher, doch um beispielsweise ein Holodeck Realität werden zu lassen, wird es wohl noch länger an den technischen Möglichkeiten fehlen. Das künftige immersive, taktile Internet benötigt eine von den Endnutzern breit akzeptierte Technologie und eine digitale Infrastruktur, die immense Datenmengen mit möglichst geringen Latenzzeiten transportiert. Damit aus Science-Fiction in den nächsten Jahrzehnten Realität werden kann – denn die Technologien der Zukunft bieten sehr viele positive Anwendungsfälle – muss jeder von uns mit hochentwickelten Geräten ausgestattet werden, die in einem feinmaschigen Netz von Hochleistungsnetzwerken miteinander verbunden sind. Nur so kann die synchrone und nahtlose Übertragung von Video-, Audio-, Sinnes- und Cyber-Ortungsdaten zu und von unseren physischen Standorten sichergestellt werden.
Im Zentrum des Konzepts eines taktilen Internets steht unser eigener digitaler Zwilling. Dieser wird in programmierten Umgebungen mit den digitalen Zwillingen von anderen Personen oder von Objekten sowie rein virtuellen Elementen interagieren. Maßgeblich wird die Virtual Reality-Technologie (VR) sein, aber darüber hinaus wird das Erlebnis über weitere Wearables unterstützt, die ausgefeilte und subtile Variationen sensorischer Informationen übermitteln. Dies schließt unter anderem Druck, Wärme, Textur und Geruch ein. Die Datenströme für diese sensorischen Aspekte müssen mit den Datenströmen für die visuelle und akustische Darstellung des Raums synchronisiert werden. Die geringste Verzögerung bei nur einem Teilaspekt würde zu einer Unterbrechung führen, die die Authentizität und die Immersion beeinträchtigen würde.
Die reale Welt programmieren
Die hochauflösende virtuelle 3D-Darstellung realer Räume wird auf mehreren Videoübertragungen beruhen, die eine höhenunabhängige 360°-Perspektive ermöglichen. Sensoren in Wearables und Brain Computer Interfaces (BCIs) – seien es eingebettete Chips oder nicht-invasive Sensoren in Headsets – werden unsere Absichten und Handlungen aufgreifen und diese als Bewegung darstellen. Anhand dieser Informationen werden die Videofeeds der Benutzer angepasst. Taktile Informationen, wie bei physischen Interaktionen oder dem Bewegen von Objekten (z. B. das Schütteln der Hand eines Geschäftspartners oder die Fernsteuerung eines Fahrzeugs), müssen ebenfalls nahtlos in die Daten integriert werden, die an jeden Benutzer oder jedes Gerät gesendet werden.
Diese Datenströme müssen mit Hilfe von KI auf die Millisekunde genau miteinander synchronisiert werden. Nur so kann eine Kopfbewegung ohne Verzögerung und ohne das daran anknüpfende Schwindelgefühl vermittelt werden. All diese Datenströme müssen live übertragen werden, d. h. sie benötigen eine geringe Latenzzeit und eine große Bandbreite. Die aktuellen Cloud-Gaming- und Cloud-VR-Anwendungen geben uns einen Eindruck davon, wie hoch diese Anforderungen sein werden. Schon heute ist allgemein anerkannt, dass eine Latenz von 20 Millisekunden (ms) das Maximum für ein gutes Spielerlebnis darstellt. Je interaktiver das Szenario ist, desto geringer muss die Latenz sein. Für Cloud-VR-Anwendung mit 8K Auflösung und 360°-Sichtfeld muss diese auf unter 10 ms sinken. Für Cloud-Gaming ist eine Bandbreite von 35-50 Mbit/s als absolutes Minimum erforderlich. Bei VR steigen ebenfalls die Anforderungen an die Konnektivität. Bei einer hohen Auflösung sollte die Bildwiederholungsrate zudem mindestens 90 fps (frames per second) betragen, um das Übelkeitsrisiko zu senken. Daher wird ein hervorragendes VR-Erlebnis in 8K eine Bandbreite von mehr als 1 Gigabit pro Sekunde (Gbps) für nahtlose Interaktionen erfordern. Diese Datenmenge gilt jedoch nur für einen Benutzer. Wenn mehr Personen gleichzeitig im Haushalt online sind, wachsen die Anforderungen an die Konnektivität sogar noch stärker.
Verschmelzung der physischen und digitalen Welt
Derzeit entsteht ein cyber-physisches Kontinuum: ein nahtloser Übergang und eine Interaktion zwischen der physischen und der digitalen Welt. Wir können die Anfänge dieses Kontinuums in der Spielkonsole Wii von Nintendo erkennen – aber diese Brücke zwischen der physischen und der virtuellen Welt ist nur ein unterhaltsamer Anfang. Heutzutage bieten insbesondere VR- und AR-Technologien solche Erlebnisse, wobei jede neue Hardware-Generation und weitere Entwicklungen zusätzliche Möglichkeiten bieten. Vorausgesetzt die infrastrukturellen Voraussetzungen sind gegeben. Innovationen im Bereich der haptischen VR erfordern extrem niedrige Latenzzeiten von maximal 1 ms oder sogar nur 0,5 ms für einige Anwendungsfälle. Exoskelette werden es uns ermöglichen, Handlungen in schwer zugänglichen Umgebungen per Telemanipulation auszuführen. Non-Fungible Token (NFTs) bieten einen Mechanismus, um das Eigentum an digitalen Vermögenswerten, wie etwa unserem digitalen Zwilling, zu verifizieren und vor Missbrauch durch Dritte zu schützen. Ob wir einen speziellen Raum in unserem Zuhause bzw. Büro haben werden, der als Portal zu unserem digitalisierten Leben fungiert, oder ob wir ihn in Form einer erweiterten Realität (XR) mit uns tragen können, bleibt abzuwarten. Wahrscheinlich werden beide Szenarien existieren, entweder in verschiedenen Stadien der technologischen Entwicklung oder parallel für verschiedene Anwendungsfälle.
So werden wir in der Lage sein, Menschen im Cyberspace die Hand zu geben und miteinander zu interagieren und Computerspiele auf einem neuen Level zu spielen. Wir müssen abwarten und verfolgen, welche weiteren Möglichkeiten es geben wird. Es gibt jedoch einen Vorbehalt: Schon die bestehenden Anwendungen übersteigen die Möglichkeiten der heutigen Hardware und Infrastruktur, während die neuen Anwendungen noch komplexer zu handhaben sein werden.
Die Herausforderung der Entfernung – so nah wie möglich an den Nutzer herankommen
So viel zum Frontend, der bisher teuren Luxustechnologie für Verbraucher. Aber es ist das, was sich hinter den Kulissen abspielt, was für diese Cyber-Zukunft entscheidend sein wird: die digitale Infrastruktur, die auf intelligente Weise Daten speichert, analysiert, verarbeitet, austauscht, multiplexiert, synchronisiert und Datenströme an Endnutzergeräte oder direkt an ihr BCI weiterleitet. Dabei dürfen höchstens ein paar Millisekunden verstreichen. Aus den physikalischen Gesetzen der Lichtgeschwindigkeit folgt, dass Interaktionen, die von einer Latenzzeit im Bereich von einer Millisekunde abhängen, nur mit Personen und Objekten in der näheren Umgebung möglich sind. Dies ist im Anwendungsbereich der haptischen VR der Fall. Die Entfernung darf dabei nur etwa 80 km (berechnet für Verarbeitungszeit und Round-Trip-Time (RTT) unter der Annahme von 5G und Glasfaser, mit dem direktesten Weg und der Verbindung mit der geringsten Latenz) betragen. Die Anwendungsfälle wären hier also auf lokal begrenzte Aufgaben beschränkt, wie die Fernsteuerung von Robotern für Aufräumarbeiten oder Rettungseinsätze in gefährlichen Umgebungen. Eine weitere Möglichkeit ist die Durchführung spezialisierter Operationen aus der Ferne, gesteuert aus einem zentralen Krankenhaus in der Region. Bei weniger kritische Anwendungsfällen wie zwischenmenschlichen Interaktionen, Unterhaltung, Spielen sowie virtuellem Einkaufen ist eine Latenzzeit von 5 bis 15 ms in Ordnung, sodass eine Entfernung von etwa 400 bis 1200 km zum Datenzentrum praktikabel ist.
Wir können in einem 5G-Campus bereits hohe Bandbreiten und niedrige Latenzzeiten erreichen - bis zu 1 ms RTT. Aber eine isolierte 5G-Umgebung ist nicht vergleichbar mit der digitalen Infrastruktur, die Unternehmensnetzwerke und Endbenutzernetzwerke mit Clouds, Datenzentren, dem Internet-Backbone und dem Rest der Welt verbindet. Tatsächlich wird das taktile Internet wahrscheinlich das Ende von 5G- und B5G-Netzwerken (Beyond 5G) sowie für WiFi 6 und 7 einläuten. Was aber schon heute klar ist: Die digitale Infrastruktur wird die Distanz zu den Nutzern reduzieren müssen. Dies erfordert Edge Computing in einem anderen Maßstab – Container-Rechenzentren in jeder Nachbarschaft und Server für den Hausgebrauch in den Kellern („Pizza Box“-Server) – und eine letzte Meile mit hoher Bandbreite, sei es 5G oder FTTH/B, sowie einen stark verdichteten Zugang zur Interconnection Infrastruktur. So entsteht ein Edge-Netzwerk auf einem neuen Level – das ist Edge on Speed!
Das Internet der Zukunft erfordert Technologieneutralität
Wir haben noch einen langen Weg vor uns, bevor wir eine digitale Infrastruktur auf diesem Niveau erreichen. Ein dichtes Netz von Infrastrukturen, basierend auf neuer und bekannter Technologie, wird notwendig sein, um die Anwendungsfälle des immersiven Internets zu unterstützen. Es werden sehr viel mehr Rechenzentren sowie Glaserfaser- und 5G-Netze als heute benötigt, um die Endnutzer flächendeckend zu versorgen. Und nicht nur Bewohner von großen Metropolen, sondern auch alle kleineren und ländlich gelegenen Orte rund um den Globus werden ihre eigene hoch skalierbare Interconnection-Infrastruktur benötigen, um solche Umgebungen mit niedrigen Latenzzeiten und hohen Bandbreiten zu erreichen.
Gleichzeitig muss die Offenheit und Neutralität des Internets gewahrt und die Flexibilität für die Nutzer sichergestellt werden. Unternehmerische Bedenken hinsichtlich der Anbieterbindung bei Cloud-Diensten haben demonstriert, was passiert, wenn Interoperabilität und Übertragbarkeit nicht in das System eingebaut sind. Das Internet entwickelte sich einst so schnell auf der Grundlage von Offenheit, Interoperabilität und Standardisierung. Wir brauchen also eine Standardisierung auf mehreren Ebenen, um Interoperabilität zu erreichen. Eine äußerst vielfältige, technologisch neutrale Infrastrukturlandschaft wird benötigt, um Offenheit zu gewährleisten.
Ein wahrhaft immersives, taktiles Internet muss von Grund auf für den Austausch von Daten über Wahrnehmungen, Sinne und digitale Zwillinge ausgelegt sein. Es wird nicht nur ein einziges "Metaversum" geben, wie es heute oft diskutiert wird, so wie es auch nicht nur eine einzige Cloud gibt. Stattdessen wird es mehrere Universen geben, die zwangsläufig über gemeinsame Protokolle verfügen und auf einem geteilten Verständnis der Datenverwaltung beruhen werden, um miteinander interagieren zu können. Um dies zu verwirklichen, müssen die Räume zwischen diesen Universen ebenso feinmaschig vernetzt sein wie die Räume innerhalb dieser Universen.
Das Konnektivitätsnetz für das taktile Internet
In der Anfangsphase des Internets der Zukunft werden alle Netztechnologien, in einigen Regionen bis hin zu 3G-Mobilfunk und Kupferkabel, zusammen genutzt werden müssen, um die erforderlich dichte Abdeckung zu erreichen. Im Laufe der Zeit wird es jedoch notwendig sein, die älteren Technologien auf viel höhere Bandbreiten und niedrige Latenzzeiten aufzurüsten, um die zunehmend immersiven Anwendungen zu unterstützen. Internetdienstleister müssen Inhalte und Umgebungen im Netz zwischenspeichern und den Endnutzern zur Verfügung stellen, ähnlich wie es Streaming-Anbieter heute tun. Datenzentren werden benötigt, um KI-Anwendungen und digitale Zwillinge unterzubringen und größere Umgebungen viel näher am Nutzer zu cachen.
Langfristig gedacht werden viele hochleistungsfähige Interconnection-Plattformen im Abstand von 50-80 km benötig, die den Datenverkehr lokal austauschen. Sie müssen nicht nur 400-Gigabit-Ethernet (GE)-Verbindungen, sondern 800GE- und (nach zwei Jahrzehnten GE) Terabit-Ethernet (TE)-Verbindungen anbieten, um den wachsenden Bandbreitenhunger zu stillen, den neue immersive Anwendungen mit sich bringen werden. Die Internet Exchanges (IXs) der nächsten Generation, die den Datenaustausch mit geringsten Latenzzeiten ermöglichen, werden vollautomatisch, mit der neuesten Verschlüsselungstechnologie gesichert und extrem resilient sein müssen. Sie müssen Rechenzentrum- und Carrier-neutral sein, um eine kritische Masse von Akteuren der digitalen Infrastruktur zusammenzubringen. Denn nur mit gemeinsamer Arbeit an der Interconnection der verschiedenen entstehenden Universen kann das Internet der Zukunft Realität werden. IXs sind die Magneten, die Netze und Rechenzentren zusammenführen, so dass die Netzwerke direkt miteinander verbunden werden können und die Latenzzeiten zwischen Nutzern, Inhalten und Ressourcen so gering wie möglich gehalten werden.
Nur auf diese Weise können wir das Konnektivitätsnetz der Zukunft weben: Mit einer intelligenten Verbindung von Geräten, Datenströmen, Clouds und Rechenzentren mit geringer Latenz und hoher Bandbreite. Anwendungen im immersiven Internet benötigen jedoch so geringe Latenzen, dass Interaktionen über weitere Distanzen schwierig werden. Ohne Berücksichtigung der Verarbeitungszeit beträgt die bestmögliche RTT für Daten, die um die halbe Welt reisen, über 130 Millisekunden. Doch wenn wir noch weiter in die Zukunft schauen, ergeben sich wieder neue Herausforderungen: Welche Latenzen werden sich beispielweise bei der Kommunikation mit Menschen auf dem Mond oder dem Mars ergeben? Angesichts der erheblichen Verzögerungen bei der transkontinentalen oder gar interplanetaren Kommunikation in den kommenden Jahrzehnten werden wieder neue Lösungen erforderlich sein. Es mag zwar immer noch möglich sein, sich auf große Entfernungen die Hand zu geben, aber wir werden weiterhin die Verzögerung erleben, die wir heute von Videokonferenzen kennen. Aber vielleicht werden wir bis dahin die Herausforderung der Entfernung überwunden haben – zum Beispiel durch künftige Generationen der Quantennetzwerktechnologie. Die Zukunft birgt viele spannende und positive Entwicklungen – und wir schaffen schon heute die Grundlagen dafür.