Datenarchitektur 29.07.2020, 07:07 Uhr

Verteilte Daten und die Einführung von 5G

Edge-Computing spielt eine wichtige Rolle für den Erfolg von 5G. Der entscheidende Nutzen besteht darin, mehr Verbindungen zuzulassen und nicht mehr Daten zu senden.
(Quelle: Wit Olszewski / shutterstock.com )
Der 5G-Standard stellt seinen Vorgänger 4G in den Schatten: Die Technologie verspricht Download-Geschwindigkeiten von bis zu 1 GBit/s gegenüber nur 20 bis 30 MBit/s bei 4G und auch was die Latenzzeit betrifft, hat die Global System for Mobile Communications Association (GSMA) ein Ziel von 1 Millisekunde (ms) ausgerufen - das ist 50 Mal besser als 4G.
Zudem ist 5G in der Lage, mehr Geräte zuverlässig zu unterstützen: Hier ist die Rede von einer Million Geräten pro Quadratkilometer gegenüber einer Million auf 500 Quadratkilometern bei 4G. Demnach ist 5G die Netzwerkplattform der Zukunft für datengesteuerte Unternehmen, die Sensoren und Geräte in den Bereichen Konstruktion, Fertigung und Logistik einsetzen. Sie sollen Prozesse sowie die Leistung und Einhaltung der Vorgaben überwachen und Systemausfälle antizipieren.

Latenz ist die neue Ausfallzeit

Diese Geräte werden Echtzeit-Analyse und KI und damit Anwendungen nutzen, die eine Leistung unter 1 ms erfordern. Während jedoch die Latenz im 5G-Netz selbst reduziert wird, wird der neue Mobilfunkstandard die Latenz für datengesteuerte Anwendungen nicht beseitigen.
Warum ist das so? 5G adressiert zwar die Transportschicht, löst aber nicht die Einschränkungen hinsichtlich der Speichersysteme, von denen datenintensive Anwendungen abhängen. Zugriffszeiten, Lese-/Schreibgeschwindigkeiten und die Schnittstelle zwischen Gerät und Netzwerk werden durch mechanische und physikalische Eigenschaften von SANs, NAS und SSDs bestimmt. Diese wiederum beeinträchtigen die Leistung von Anwendungen bei der Datenextrak­tion, Transformation, dem Laden und der Synchronisation. Ist Latenz wichtig oder die Datenmenge riesig, kann das Verschieben der Daten auf ein zentrales Rechenzentrum teuer werden. Zudem wird es stets einen Unterschied zwischen der angestrebten Geschwindigkeit im 5G-Netz und der tatsächlichen Geschwindigkeit bei Übertragung und Latenz geben und auch die 5G-Netzabdeckung wird variieren.
Genau hier kommt Edge-Computing ins Spiel, laut Gartner eine Form der verteilten Architektur, bei der die Informa­tionsverarbeitung in der Nähe der Geräte angesiedelt ist, wo Daten verarbeitet oder generiert werden. Und: Die verteilte Struktur des IoT macht ein Rechenmodell überflüssig, bei dem Daten und Anwendungen das Netzwerk auf dem Weg zum zentralen Rechenzentrum durchqueren müssen.

In-Memory für Leistung

Entscheidend für den Einsatz von 5G in Unternehmen ist demnach eine Datenarchitektur, die für Edge-Computing gerüstet ist. Um die Vorteile von 5G vollständig auszuschöpfen, müssen Daten mit minimaler Latenz verarbeitet werden. Der entscheidende Nutzen von 5G besteht darin, mehr Verbindungen zuzulassen und nicht mehr Daten zu senden.
Dabei ist es durchaus sinnvoll, für die Datenspeicherung und -verarbeitung RAM-Speicher am Edge zu nutzen, denn diese sind bei der Abfrage sowie beim Lesen/Schreiben schneller als physische Speicher. Ein In-Memory-Datengitter kann sowohl den lokalen Speicher als auch die Rechenleistung über den Edge hinaus nutzen. So werden Jobs in kleinere Aufgaben aufgesplittet, die über jeden Endpunkt verteilt werden können, um sie dann mithilfe von Cluster-Computing und Speicher pa­rallel zu verarbeiten. Müssen Daten für eine historische Analyse an das Rechenzentrum zurückgeschickt werden, können sie zunächst gefiltert und/oder aggregiert werden, um die Übertragungslast zu reduzieren. Eine Plattform für In-Memory-Computing erlaubt demnach datenintensive Anwendungen, die modular, fehlertolerant und skalierbar sein können.
Dale Kim
“„Entscheidend für den Einsatz von 5G in Unternehmen ist eine Daten­architektur, die für Edge- Computing gerüstet ist.“„
Dale Kim
Senior Director
bei Hazelcast
5G wird die Geschwindigkeit und die Leistung in Netzwerken drastisch erhöhen, vorausgesetzt, In-Memory-Computing beseitigt verbleibende Engpässe bei der Datenverarbeitung. Wenn verteilte Daten lokal „am Rand“ verarbeitet werden und die Echtzeitverfügbarkeit gewährleistet ist, können modernste Anwendungen vorangetrieben werden.

Autor(in) Dale Kim

Das könnte Sie auch interessieren