Wir befinden uns an einem Wendepunkt in der IT- und Netzwerkbranche. Die Bereitstellung von Cloud-Anwendungen hat das bisherige, auf Rechenzentren ausgerichtete Bereitstellungsmodell auf den Kopf gestellt, bei dem Anwendungen und Daten in öffentlichen und privaten Cloud-Infrastrukturen zentralisiert wurden. Die Zunahme von vernetzten Geräten, Sensoren und anderen Geräten des Internets der Dinge (IoT) sowie die zunehmende Verbreitung von 5G-Mobilfunknetzen werden sich auf dieses Cloud-Bereitstellungsmodell auswirken. Nicht, um es zu ersetzen, sondern um das Cloud-Modell zu ergänzen und ein dezentraleres Modell hinzuzufügen, das als Edge Computing bekannt ist.
Die Definition von Edge Computing ist noch im Entstehen begriffen, da es sich um einen schnell wachsenden und reifenden Bereich handelt. Der Grundgedanke des Edge-Computing besteht jedoch darin, diskrete Mengen an Rechenleistung, Arbeitsspeicher und Speicherplatz aus den zentralen Cloud-basierten Rechenzentren an einen Punkt im Netzwerk zu verlagern, der so nah wie möglich an dem Ort liegt, an dem die Daten erzeugt werden. Dies ist sinnvoll, da die Datenmenge, die durch das Internet der Dinge und die damit verbundene Technologie erzeugt wird, enorm ist. Die Übertragung dieser Daten zur Verarbeitung in die Cloud ist sowohl hinsichtlich der benötigten Energie als auch der genutzten Bandbreite teuer. Edge Computing zielt darauf ab, die lokal an der Quelle erzeugten Daten zu verarbeiten und nur die Ergebnisse und wesentlichen Daten an das Zentrum in der Cloud zu übertragen.
Edge Computing wird in den nächsten fünf Jahren ein wichtiger Treiber für die Netzentwicklung sein. Prognosen zufolge werden sich die Ausgaben für Edge Computing bis 2024 auf 9 Milliarden US-Dollar pro Jahr belaufen, wobei 44 % davon auf Nordamerika, 28 % auf Europa und 21 % auf die APAC-Region entfallen. Die Einführung von 5G wird einen großen Teil dieser Expansion vorantreiben, da Edge-Computing-Technologien für die Bereitstellung lokaler Netzwerke mit hoher Bandbreite und geringer Latenz, die 5G erfordert, unerlässlich sind.
Die Konfiguration von Netzen, die Anwendungen und Dienste bereitstellen, wird sich also ändern. Dies wirft die Frage auf: Wirkt sich der Trend zum Edge Computing auf die Anwendung der Load-Balancing-Technologie aus?
Edge-Computing-Infrastruktur
Einer der aufkommenden Trends bei der Bereitstellung von Edge Computing sind Edge-Rechenzentren. Dabei handelt es sich um kleine, lokale und hochgradig fokussierte Datenzentren, die sich am Rande des Netzwerks befinden. Sie werden verwendet, um die Daten von IoT- und anderen Geräten in einem lokalen Bereich zu sammeln, zu verarbeiten und die Ergebnisse an andere, größere Edge-Rechenzentren und schließlich an die in der Cloud gehosteten zentralen Systeme weiterzuleiten. Edge-Rechenzentren sind vergleichbar mit Stromversorgungsstationen, die die Stromversorgung so nah wie möglich an die Verbraucher heranführen.
Diese Edge-Rechenzentren enthalten oft Industriestandard-Hardware, auf der virtuelle Maschinen und Container-Technologien wie Docker ausgeführt werden können, die es ihnen ermöglichen, verschiedene Anwendungen und Dienste dynamisch je nach Nutzung und aktuellem Bedarf bereitzustellen. Im Wesentlichen handelt es sich um kleine lokale Rechenzentren. Mehrere Edge-Rechenzentren können als virtuelle Edge-Rechenzentren gruppiert und als eine einzige Einheit behandelt werden. Dies kann in einem Stadtviertel oder Vorort sinnvoll sein.
Jedem, der sich mit Load-Balancing und Anwendungsbereitstellung auskennt, kommt diese Beschreibung von Edge-Rechenzentren wahrscheinlich bekannt vor. Sie sind reif für ein angemessenes Load-Balancing, um den von den Geräten eingehenden Datenverkehr zu verwalten und zu gestalten.
Load-Balancing Edge-Computing-Infrastruktur
Aus dem obigen Überblick über das Edge-Computing geht hervor, dass der Datenverkehr, der zu den virtuellen Maschinen und containerbasierten Anwendungen in den Edge-Rechenzentren fließt, noch zu verwalten ist. In der IoT- und 5G-Welt, in die wir eintreten, müssen kontinuierliche Dienste und möglichst geringe Latenzzeiten bei den Antworten gewährleistet sein. Genau dazu tragen Load Balancer bei. In jedem Edge-Rechenzentrum sollten mehrere Anwendungsinstanzen laufen, und der Datenverkehr zu ihnen kann über Load-Balancer verwaltet werden, die sicherstellen, dass die Last verteilt wird und die Server nicht überlastet werden.
Die Load Balancer im Edge-Rechenzentrum können auch Global Server Load Balancing (GSLB) verwenden, um mit Peers in anderen Edge-Rechenzentren und in der Cloud zusammenzuarbeiten und die Load je nach Bedarf auf mehrere Standorte in einer Region zu verteilen, um die besten Antwortzeiten zu erzielen.
Schlussfolgerung
Was ist also die Antwort auf diese Frage: Beeinflusst der Trend zum Edge Computing die Anwendung der Load-Balancing-Technologie?
Ja, der Trend zum Edge-Computing wird sich darauf auswirken, wie das Load-Balancing angewendet wird. Die Load Balancer werden zusammen mit den anderen Anwendungen an den Rand verlagert werden müssen. Wenn überhaupt, dann bedeuten die Anforderungen an eine möglichst geringe Latenz für bestimmte 5G-Dienste am Rande, dass ein effizientes Load-Balancing weg vom Zentrum kritischer sein wird.