default-focus-right

Was ist ein Application Delivery Controller (ADC) und was macht Enterprise Load Balancing?

WUI-Demo

Was sind Application Delivery Controller?

Application Delivery Controller sind die nächste Generation von Load-Balancern und befinden sich in der Regel zwischen der Firewall/dem Router und der Webserver-Farm. Ein Application Delivery Controller ist ein Netzwerkgerät, das Websites dabei hilft, den Benutzerverkehr so zu lenken, dass überschüssige Last von zwei oder mehr Servern entfernt wird. Neben dem Load-Balancing auf Layer 4 können ADCs auch Layer 7 für das Content-Switching verwalten und bieten außerdem SSL-Offload und -Beschleunigung. Sie bieten in der Regel auch erweiterte Funktionen wie die Umleitung von Inhalten und die Überwachung des Serverzustands. Ein Application Delivery Controller kann auch als Web-Switch, URL-Switch, Web-Content-Switch, Content-Switch und Layer-7-Switch bezeichnet werden.

Einleitung

Die Unternehmen von heute durchlaufen dieselbe IT-Entwicklung wie ihre Pendants in den Unternehmen, nur in kleinerem Maßstab. Zuverlässigkeit, flexible Skalierbarkeit, Leistung und einfache  Verwaltung sind für die Infrastruktur einer Website genauso wichtig wie für ein Unternehmen. Man kann sagen, dass diese Fähigkeiten für Unternehmen jeder Größe ein wichtiges betriebliches Erfordernis sind. Unternehmen jeder Größe können durch den Einsatz geeigneter Netzwerktechnologien Effizienzsteigerungen und Wettbewerbsvorteile erzielen. Ohne die richtigen Systeme werden sie jedoch unter einer schlechten Leistung leiden und im Wettbewerb benachteiligt sein. Aus diesem Grund ist die Wahl der richtigen Application Delivery Controller und Server Load-Balancing-Produkte entscheidend für eine effiziente und effektive Website-Infrastruktur, die den heutigen Anforderungen gerecht wird und gleichzeitig den richtigen Upgrade-Pfad für die Geschäftsanforderungen von morgen sicherstellt.

Anforderungen an die Anwendungsbereitstellung und das Load-Balancing von Servern

Fortschrittliche Application Delivery Controller und intelligente Load Balancer sind heute nicht nur erschwinglich, sondern die Konsolidierung von Layer 4-7 Load Balancing und Content Switching sowie Server-Offload-Funktionen wie SSL, Daten-Caching und -Komprimierung bietet Unternehmen eine kostengünstige Out-of-the-Box-Infrastruktur.

Für Großunternehmen (Unternehmen mit 1.000 oder mehr Mitarbeitern) ist die Integration von Best-of-Breed-Netzwerkinfrastrukturen eine Selbstverständlichkeit. Best-of-Breed ist jedoch nicht gleichbedeutend mit der Bereitstellung von Netzwerken mit unternehmensspezifischen Funktionen und teuren Produkten, sondern vielmehr mit der Bereitstellung von Produkten, die speziell für Unternehmen aller Größenordnungen entwickelt wurden und über die entsprechenden Funktionen, Leistung, Zuverlässigkeit und Skalierbarkeit verfügen.

Im Allgemeinen neigen Unternehmen aller Größenordnungen dazu, "große Markenprodukte" zu kaufen. Kleinere Anbieter, die Produkte der gleichen Kategorie anbieten, können jedoch die optimale Leistung, die erforderlichen Funktionen und die Zuverlässigkeit mit den gleichen Vorteilen bieten - und das zu niedrigeren Kosten.

Für den Unternehmensmarkt ist das Best-of-Breed-Produkt mit hohen Gesamtbetriebskosten (TCO) verbunden, da der Einsatz von Produkten verschiedener Hersteller zusätzliche Schulungen, Wartung und Support erfordert. Kemp kann KMUs dabei helfen, ihre TCO zu senken und eine zuverlässige, leistungsstarke und skalierbare Web- und Anwendungsinfrastruktur aufzubauen. Die Produkte von Kemp bieten ein gutes Preis-Leistungs-Verhältnis für KMUs. Unsere Produkte wurden speziell für KMUs entwickelt und kosten deutlich weniger als die Preise der großen ADC- und SLB-Anbieter, die Funktionen entwickeln, die auch von Unternehmenskunden genutzt werden könnten.

Bewährte Lösungen für kostengünstige, zuverlässige Anwendungsbereitstellung und Load-Balancing von Servern

Andere Hersteller bieten Application Delivery Controller und Server Load-Balancer an, aber die Produkte von Kemp haben das beste Preis-Leistungs-Verhältnis, das sich aus dem Funktionsumfang, der Skalierbarkeit, der Hochverfügbarkeit, der Leistung und der einfachen Verwaltung ergibt - und das zu einem kosteneffizienten Preis, der die Anforderungen kleiner und mittlerer Unternehmen erfüllt.

Web-Applikationen

Bis vor wenigen Jahren hatten Unternehmen in der Regel getrennte Systeme und Dienste, um mit Kunden, Partnern und Mitarbeitern zu kommunizieren und Geschäfte abzuwickeln. Jetzt, durch die allgegenwärtige Akzeptanz und Zugänglichkeit des Internets, wird die wahre Kraft der Vernetzung genutzt. Traditionelle Anwendungen wie Auftragsbearbeitung, Rechnungsstellung und Kundenverwaltung wurden in vollständige Webanwendungen für die Lieferkette integriert. Diese neuen Webanwendungen vereinheitlichen und rationalisieren nun die Geschäftsprozesse von zuvor monolithischen Client/Server-Geschäftsanwendungen. Dies ist eine gute Nachricht für Unternehmen jeder Größe, denn webbasierte Anwendungen bieten das Potenzial, den Bedarf an teurer Hardware zu reduzieren, die Markteinführungszeit zu verkürzen und die Wartungskosten zu senken.

Es ist kein Kinderspiel

Viele Unternehmen, die webbasierte Anwendungen bereitstellen, stehen vor einer Vielzahl von Herausforderungen – von der ersten Bereitstellung bis zur Produktion. Zum Beispiel können Sie auf Probleme stoßen, wenn Ihre Server die Anzahl der Besucher Ihrer Website nicht bewältigen können. Die Ursachen der Probleme sind ausnahmslos auf ein hohes Verkehrsaufkommen zurückzuführen, das mit dem Netzwerk verbunden ist, und auf Einschränkungen aufgrund von Serverressourcen. Trotz steigender Budgets für Server und Netzwerk-Upgrades bieten Webanwendungen möglicherweise nicht die erwarteten Leistungsverbesserungen, Skalierbarkeit und Effizienz.

IT-Infrastruktur

Der E-Commerce wird über transaktionsbasierte Websites abgewickelt, deren Verwaltung sehr komplex und teuer sein kann. Eine typische E-Commerce-Website ist mit Routern verbunden, die den Datenverkehr durch Firewalls leiten, die wiederum den Datenverkehr an Application Delivery Controller (Server-Load-Balancer der nächsten Generation) weiterleiten, die die Benutzer schließlich zu den entsprechenden Servern leiten. Produkte zur Optimierung der Netzwerk- und Anwendungsbereitstellung verteilen den Datenverkehr auf viele verschiedene Server, die oft mit Datenbankservern verbunden sind. Wenn auch nur eine dieser Komponenten ausfällt, kann im schlimmsten Fall die gesamte Website zum Erliegen kommen. Oftmals verzögert sich dann eine Benutzeranfrage oder eine Kundentransaktion schlägt fehl.

Das Internet ist ein äußerst widerstandsfähiges Netz. Es wurde jedoch nicht mit Blick auf die Anforderungen des modernen Geschäftsverkehrs entwickelt. Bei der heutigen Nutzung des Internets kann ein Moment der Verzögerung ein Unternehmen Tausende oder sogar Millionen von Dollar kosten. Auch wenn neue webbasierte Anwendungen in diesem Sinne konzipiert sind, können sowohl das Internet als auch die Serverressourcen einen Engpass darstellen. Das Internet unterscheidet nicht zwischen einer geschäftskritischen Transaktion und einer harmlosen Webseite, und es gibt keine garantierte Dienstqualität für Anwendungen. Wenn Sie ein unbegrenztes IT-Budget für Server, Systeme, Bandbreite und Personal für die Verwaltung und Überwachung Ihrer Website-Infrastruktur hätten, wäre das vielleicht in Ordnung, aber für praktisch alle Unternehmen ist das unzumutbar.

Lösungen für die Anwendungsbereitstellung

Lösungen für die Anwendungsbereitstellung wurden entwickelt, um die mit der Komplexität der Website-Infrastruktur, der Leistung, der Skalierbarkeit und der Sicherheit verbundenen Herausforderungen zu bewältigen. Anwendungsbereitstellungslösungen sind recht vielfältig. Sie können als Application Delivery Controller (ADC), Server Load Balancer (SLB), Application Front-End Devices (AFE), Application Traffic Manager und Web Front-Ends, Content Switches und Application Switches bezeichnet werden. Um Verwirrung zu vermeiden, konzentriert sich dieses Dokument auf Lösungen für das Rechenzentrum und bezeichnet Lösungen für die Anwendungsbereitstellung als Application Delivery Controller. Die heutigen Application Delivery Controller haben sich aus den Server-Load-Balancern entwickelt, die in den späten 1990er Jahren eingeführt wurden.

ADCs bieten die Möglichkeit, Internetnutzer zu den leistungsfähigsten und am besten erreichbaren Servern zu leiten. Sollte einer der Server (oder Anwendungen auf diesem Server) aufgrund eines Fehlers unzugänglich werden, schaltet der ADC diesen Server oder diese Anwendung ab und leitet die Nutzer automatisch zu anderen funktionierenden Servern um. Dieser Prozess ist für den Benutzer im Wesentlichen nahtlos und für die Betreuung des Kunden von entscheidender Bedeutung.

In den letzten fünf Jahren hat sich die Anwendungsbereitstellung zu einer der wichtigsten Technologien entwickelt, um das Problem der Leistung und Zugänglichkeit für internetbasierte Anwendungen zu lösen.

Darüber hinaus kann eine ADC durch den Einsatz verschiedener Load-Balancing-Algorithmen die Benutzer auf die Server verteilen, die die bestmögliche Leistung bieten. Die ADC kann wichtige Serverelemente wie die Anzahl der gleichzeitigen Verbindungen und die CPU-/Speicherauslastung dynamisch abfragen.

 

Um das Benutzererlebnis weiter zu verbessern und zu sichern, bieten fortschrittlichere ADCs SSL-Offload/Beschleunigung. Die SSL-Beschleunigung im ADC ermöglicht es Ihnen, die SSL-Handshake- und Verschlüsselungs-/Entschlüsselungsprozesse von den Servern auszulagern. Durch diese Auslagerung wird die Leistung der Server erheblich gesteigert, während gleichzeitig der Zeit- und Kostenaufwand für die Verwaltung der SSL-Zertifikate auf dem Server verringert wird.

Eine erhebliche Nachfrage auf dem Markt wird durch die Integration von Web 2.0-Anwendungen entstehen. Diese Nachfrage wird von ADCs befriedigt. Neben der SSL-Beschleunigung gibt es drei Hauptelemente für die Anwendungsbeschleunigung.

Content-Caching - speichert Daten, die wahrscheinlich wieder verwendet werden und sich wahrscheinlich nicht ändern, anstatt dass Computer sie jedes Mal von der Quelle abrufen müssen.

Datenkomprimierung - reduziert die Datenmenge, die die Verbindung überquert, indem die Daten in kleinere Pakete gequetscht werden, die dann zu einem größeren Paket zusammengefasst werden, wodurch das Senden über ein Netzwerk schneller und effizienter wird.

Application Delivery Controller verwenden verschiedene Techniken, um die Datenverkehrslast zwischen zwei oder mehr Servern, Routern, Firewalls und anderen Netzwerkressourcen zu verteilen, um die Ressourcenauslastung zu optimieren und die Leistung und Reaktionszeit der Website zu verbessern.

Die meisten Application Delivery Controller sind in der Lage, Layer-4- bis Layer-7-Management bereitzustellen. Layer 4 ist auf Webanfragen beschränkt, die an TCP-Port 80 gerichtet sind. Eine weitere Differenzierung zwischen Servergruppen ist daher nicht möglich. Layer-7-Switching Verwendet Kriterien der Anwendungsschicht, um zu bestimmen, wohin eine Anforderung gesendet werden soll. Dies bietet einem Application Delivery Controller eine viel detailliertere Kontrolle über Weiterleitungsentscheidungen. In Diagramm 2 unten kann unter Verwendung des HTTP-Protokolls xyz.com/images auf einen oder mehrere andere Server, während xyz/shop möglicherweise an Image-Server weitergeleitet wird.

Zu den weiteren Vorteilen der Verwendung von Layer-7-Switching gehört die Cookie-Persistenz, um sicherzustellen, dass ein Benutzer konsistenten Zugriff auf einen bestimmten Server hat, um eine Transaktion abzuschließen - selbst wenn eine Verbindung unterbrochen wird.

Eine weitere einzigartige Verwendung von Layer 7 für die Persistenz ist die Aufrechterhaltung der Benutzerpersistenz für Microsoft Windows Terminal Services (WTS).

Worauf Sie bei einem Application Delivery Controller achten sollten

Die unten aufgeführten Funktionen sind die Kriterien, auf die ein kleines bis mittleres Unternehmen bei der Auswahl einer Netzwerk- und Anwendungsbereitstellungslösung achten sollte.

Hohe Verfügbarkeit (Hot Standby)

Da der gesamte eingehende Datenverkehr über den Application Delivery Controller laufen muss, sind bei dessen Ausfall die Serverfarm und der gesamte Standort nicht mehr erreichbar. Um diesem Problem zu begegnen, unterstützen die meisten Anbieter redundante Konfigurationen. In der Regel wird eine Standby- (oder redundante) Konfiguration unterstützt, die manchmal auch als HA (High Availability) bezeichnet wird. Die meisten Websites nutzen mindestens ein HA-Paar, da es riskant wäre, mehrere Webserver aus Gründen der Redundanz und Skalierbarkeit einzusetzen, nur um dann durch den Ausfall der ADC-Hardware die gesamte Site zu verlieren. Sollte eines der LoadMaster-Produkte ausfallen, sendet das Standby-Gerät eine SMNP-Benachrichtigung an den Administrator.

Layer 4 Load Balancing

Application Delivery Controller bieten mehrere IP-basierte Layer-4-Methoden zur Verteilung des Benutzerverkehrs auf die Server. Zu diesen Methoden gehören Round Robin, Weighted Round Robin, Least Connection, Weighted Least Connection, Chained Failover (feste Gewichtung) und Server-Resource-Based. Die Gewichtung ermöglicht es dem Administrator, realen Servern ein höheres (oder niedrigeres) "Gewicht" zuzuweisen, um eine bessere Kontrolle über die Verkehrsverteilung zu erhalten. Wenn beispielsweise zwei Webserver auf der Intel P3-Plattform basieren und Sie einen neuen Quad-Core-Server auf Dual-Xeon-Basis mit 16 GB Arbeitsspeicher hinzufügen, können Sie dem neuen Server ein höheres "Gewicht" zuweisen und so den Datenverkehr zwei-, drei- oder hundertmal mehr an den neuen Server weiterleiten.


Während Load-Balancing-Methoden auf Layer 4 für einen Großteil des Internet-Verkehrs mit geringem Volumen ausreichen, ist für eine große Anzahl von Websites (und deren schnelles Wachstum) ein wesentlich granularerer Ansatz zur Verteilung des Datenverkehrs erforderlich, der nur durch Load-Balancing-Methoden auf höherer Ebene, wie z. B. Layer 7 Content Switching, erreicht werden kann.

 

Layer-7-Content-Switching

Content-Switching bezieht sich auf die Fähigkeit, Benutzeranfragen auf der Grundlage der Nutzlast der Schicht 7 auf Server zu verteilen (oder Load-Balancing). Meistens geschieht dies durch die Untersuchung des Seiteninhalts (z. B. einer URL) und das "Umschalten" der Anfragen auf den entsprechenden Server oder die entsprechende Gruppe von Servern. So kann z. B. xyz.com/images an einen Server weitergeleitet werden, der sich um Grafiken kümmert, während xyz.com/shop an einen Transaktionsserver weitergeleitet werden kann. Auf diese Weise lassen sich die Leistung und die Flexibilität der Anwendung viel besser einstellen. Wenn Ihre Webanwendung ausgiebig von Cookies Gebrauch macht, kann ein Layer-7-fähiger Application Delivery Controller außerdem die Benutzer auf der Grundlage von Cookie-Werten umschalten, was ein viel besseres Modell für die Serverpersistenz darstellt.

IP-Persistenz (Layer-4-Persistenz)

"Persistenz" (manchmal auch als "Sticky" oder Server-"Affinität" bezeichnet) lässt sich am besten am Beispiel des "Warenkorbs" verstehen. Der Einkaufswagen, wie er von den meisten E-Commerce-Websites verwendet wird, ist ein logischer Speicher für Artikel, die ein Kunde beim Einkaufen auf einer Online-Site ausgewählt hat. Die ausgewählten Artikel befinden sich in der Regel auf dem Server, mit dem der Kunde zuerst verbunden war und der dem Kunden während der Sitzung die Inhalte geliefert hat. Wenn der Kunde zu irgendeinem Zeitpunkt während der Sitzung zu einem anderen Server wechselt (einem Server, der die Sitzungsdaten nicht weitergibt), geht der Einkaufswagen des Kunden verloren, und das Einkaufserlebnis ist ruiniert. Persistenz ist eine Methode, die sicherstellt, dass der Benutzer für eine bestimmte Dauer immer zu dem Server zurückkehrt, auf dem sich seine Daten befinden.

Es gibt eine Reihe von Möglichkeiten, die Persistenz zu erreichen. Der Persistenzmechanismus wurde zuerst von Load-Balancern auf der Grundlage der Quell-IP-Adresse eingesetzt. Mit Hilfe der Quell-IP-Adresse versuchten die Load-Balancer, die Benutzer anhand ihrer Quell-IP-Adresse zu identifizieren und die Benutzer anhand dieser Kennung an den entsprechenden Server "zu binden". Diese Methode erwies sich aufgrund der Auswirkungen von Proxy-Servern und Network-Address-Translation (NAT) schnell als unzuverlässig. Wenn Proxy-Server oder NAT verwendet werden, gibt es keine Möglichkeit, eine IP-Adresse zuverlässig einem Benutzer zuzuordnen. Stattdessen können viele Benutzer durch eine einzige IP-Adresse repräsentiert werden, oder die IP-Adresse eines einzelnen Benutzers kann sich während der Dauer einer Sitzung ändern. Aufgrund dieses allgegenwärtigen Effekts ist die Persistenz der Schicht 7 (oder Cookie) viel zuverlässiger und wird meist von Application Delivery Controllern angeboten.

Layer-7-Persistenz (z. B. Cookie-Persistenz)

Fortgeschrittene Layer 7 Application Delivery Controller bieten die Möglichkeit, die Daten auf der Anwendungsschicht zu prüfen. Damit einher geht ein Persistenzmechanismus, der als Cookie-Persistenz bekannt ist. Cookie Persistence verwendet ein Browser-Cookie zur eindeutigen Identifizierung von Benutzern. Entweder die Anwendung oder der Application Delivery Controller selbst kann den Benutzern zu Beginn einer Sitzung Cookies zur Verfügung stellen, und der Browser des Benutzers kann das Cookie bei jedem weiteren Zugriff automatisch zurückgeben. Durch die Verfolgung dieser Cookie-Informationen ist der Application Delivery Controller in der Lage, genau zu bestimmen, welcher Server die nächste Anfrage erhalten soll. Die Cookie-Persistenz ist nach wie vor die zuverlässigste Methode, um Persistenz zu erreichen.

SSL-Beschleunigung

Wenn Ihre Website "transaktionale" Elemente enthält, ist es wahrscheinlich, dass Ihre Website ganz oder teilweise SSL verwendet, um diese Transaktionen zu verschlüsseln und zu sichern. In der Vergangenheit wurde SSL von demselben Server verarbeitet, der auch die Inhalte bereitstellt. Da die SSL-Verarbeitung jedoch eine erhebliche Belastung für die Gesamtleistung des Servers darstellt, war die serverseitige SSL-Verarbeitung gelinde gesagt nicht optimal. Es gibt mehrere Möglichkeiten, die SSL-Verarbeitung auf Serverebene zu unterstützen, darunter die Installation von SSL-Beschleunigungskarten, die das rechenintensive SSL-Handshaking und den Sitzungsauf- und -abbau entlasten sollen, aber diese Lösung brachte weitere Komplexität mit sich und trug immer noch nicht zur Unterstützung des Layer-7-Content-Switching und der Persistenz bei.


Es wurde klar, dass der beste Ort für die Auslagerung der SSL-Verarbeitung der Application Delivery Controller war - nicht der Server. Sobald SSL zum Application Delivery Controller verlagert wurde, würden alle HTTPS-Anfragen am Application Delivery Controller enden, entschlüsselt und über HTTP an den entsprechenden realen Server weitergeleitet werden. Dies bot eine Reihe von Vorteilen, wie z. B. die Bündelung von SSL-Zertifikaten (Sie benötigen jetzt nur noch ein Zertifikat, das sich auf dem LoadMaster befindet, und nicht mehr ein Zertifikat pro Server), aber vor allem ermöglichte es die Entschlüsselung von Inhalten, so dass der Application Delivery Controller in der Lage war, Content Switching und Layer-7-Persistenz für Datenverkehr durchzuführen, der als HTTPS übertragen wurde.

 

Verwenden von Persistenz mit SSL

Da sie sich nicht auf die Quell-IP-Adressen verlassen und das Cookie während einer SSL-Sitzung nicht überprüfen konnten, mussten die Anbieter von Application Delivery Controllern eine Methode entwickeln, um die Persistenz in einer SSL-Umgebung zu gewährleisten. Glücklicherweise bietet SSLv3 eine Möglichkeit, dies zu tun. Mit SSLv3 wurde die SSL-Sitzungskennung, ein eindeutiger 32-Byte-Sitzungsbezeichner, aus dem verschlüsselten Teil der Daten in einen eindeutigen Teil verschoben. Application Delivery Controller sind in der Lage, diese eindeutige Kennung zu lesen und den Datenverkehr auf der Grundlage dieser vorhersehbaren Kennung an den entsprechenden Server zu leiten. Diese Methode funktionierte gut, bis Microsoft den Internet Explorer Version 5.0 einführte. Mit dem IE5 änderte Microsoft das SSL-Verhalten und erzwang alle zwei Minuten eine Neuaushandlung einer neuen SSL-Sitzung. Dies bedeutete, dass alle Benutzer des IE5 und neuer alle zwei Minuten die SSL-Sitzungs-ID ändern mussten, wodurch die einzige verfügbare Methode der sicheren Persistenz unterbrochen wurde.


Durch die Kopplung eines SSL-Beschleunigers mit einem Application Delivery Controller wurde es wieder möglich, zuverlässige Persistenz zu bieten, indem der SSL-Inhalt entschlüsselt wird, so dass der Application Delivery Controller die Daten erneut prüfen kann. Wenn der SSL-Verkehr am Application Delivery Controller ankommt, wird er an eine SSL-Offload-Funktion weitergeleitet. Der SSL-Beschleuniger entschlüsselt den gesamten Inhalt, einschließlich etwaiger vom Browser gesendeter Cookies, und sendet ihn zurück an den Application Delivery Controller. Der Application Delivery Controller kann die Cookies, die URL, den URI, den Browsertyp usw. überprüfen.

Windows Terminal Services Load-Balancing, Persistenz und Sitzungsverzeichnisverwaltung

Application Delivery Controllers bieten volle Unterstützung für Windows Terminal Services 2003 und Windows Server 2008. Die ADC-Ressourcenüberwachung liefert Daten über den Arbeitsspeicher und die CPU des Servers und stellt sicher, dass die Benutzer ein möglichst effizientes Load-Balancing auf jedem Server erleben. Die ADC-Integration mit dem WTS-Sitzungsverzeichnis kann eine zuverlässige "Wiederverbindung" bereitstellen, wenn eine Remote-Desktop-Verbindung zum Server unterbrochen wurde. Ein ADC, der RDP-basierte Layer-7-Persistenz unterstützt, kann die Wiederherstellung von Client-Sitzungen einbeziehen, ohne dass der Sitzungsverzeichnisdienst installiert sein muss. Dies trägt zur Vereinfachung der IT-Infrastruktur bei und bringt Kosteneinsparungen mit sich.

 

Anzahl der LAN-Ports

Es ist wichtig zu beachten, dass die Gesamtzahl der Ports nichts mit der Anzahl der Server zu tun hat, die der Application Delivery Controller unterstützen kann. Mit Ihrem vorhandenen Layer-2/3-Switch oder Hub können Sie viel mehr Server unterstützen als die Anzahl der tatsächlichen Ports, die am Application Delivery Controller bereitgestellt werden. Mit einer so genannten "Single-Arm"-Konfiguration können Sie sogar bis zu 1000 echte Server auf einem einzigen Application Delivery Controller Load-Balancing betreiben.

Maximale Anzahl realer Server

Maximale reale Server bezieht sich auf die Anzahl der physischen Server, die ein Application Delivery Controller unterstützen kann. Je nach ADC-Modell gibt es eine Begrenzung der Anzahl der realen Server, die von einem virtuellen Server (VIP) unterstützt werden können. Es ist jedoch viel wahrscheinlicher, dass Sie die Kapazität Ihrer Internetverbindung überschreiten, lange bevor Sie die Grenze der Anzahl der Server erreichen, die der Application Delivery Controller unterstützen kann.


Ein Application Delivery Controller besteht aus einem virtuellen Server (auch als virtueller Cluster, virtuelle IP oder VIP bezeichnet), der wiederum aus einer IP-Adresse und einem Port besteht. Dieser virtuelle Server ist an eine Reihe von physischen (realen) Servern innerhalb einer Serverfarm gebunden. Auf dem Application Delivery Controller ist ein virtueller Server (VIP) in der Regel eine öffentlich zugängliche IP-Adresse, die auf Benutzeranfragen antwortet. In der Regel werden Regeln und Methoden für Load-Balancing, Content Switching und Persistenz auf einer VIP-Basis zugewiesen. Bei realen Servern bietet eine große Anzahl von unterstützten VIPs mehr Flexibilität in der Architektur und im Design der Site oder Anwendung, da mehrere VIPs auf dieselbe Gruppe von realen Servern verweisen können. Ein robuster Application Delivery Controller unterstützt bis zu 256 VIPs.

 

Maximale Anzahl realer Server pro VIP

Die meisten Anbieter von Application Delivery Controllern legen eine Grenze fest, wie viele reale Server von einem einzigen VIP angesprochen werden können. Ein zu geringes Verhältnis von VIP zu realen Servern kann das Design und die Architektur in bestimmten Anwendungen beeinträchtigen. Ein guter Application Delivery Controller sollte bis zu 100 reale Server pro VIP unterstützen.

Durchsatz

Die meisten Anbieter geben zwar die theoretische maximale Bandbreitenkapazität der Ethernet-Schnittstelle an, doch hat diese Zahl nur sehr wenig mit dem tatsächlichen Durchsatz der Application Delivery Controller zu tun, da diese Zahl in hohem Maße von der Anzahl und der Art der Regeln abhängt, die der Application Delivery Controller analysieren muss, um zu entscheiden, wie das Paket zu behandeln ist. Wenn der Application Delivery Controller beispielsweise eine Load-Balancing-Entscheidung auf der Grundlage von Layer 7-Inhalten treffen muss, kann die mit diesem Prozess verbundene zusätzliche Latenz einen erheblichen Einfluss auf die Gesamtleistung und den Gesamtdurchsatz haben. Eine hochwertige Application Delivery Controller-Appliance verwendet eine moderne Hardware-Architektur, die eine hervorragende Layer-7-Leistung ermöglicht.

Maximaler SSL-TPS

TPS bezieht sich auf die Anzahl der SSL-Transaktionen, die der Application Delivery Controller pro Sekunde verarbeiten kann. Eine SSL-Transaktion umfasst einige recht intensive Rechenoperationen im Zusammenhang mit dem SSL-Schlüsselaustausch sowie dem Auf- und Abbau der SSL-Verbindung. Ein Application Delivery Controller, der einen ASIC enthält, um die SSL-Verarbeitung von der Haupt-CPU zu entlasten, bietet eine höhere Leistung. ASIC-Karten sind in der Regel recht teuer, und die meisten Anbieter verlangen oft zusätzliche Gebühren für Lizenzen für zusätzliche TPS und/oder für das Hinzufügen eines SSL-ASIC. Es ist wichtig, einen Anbieter zu finden, bei dem der Listenpreis bereits die maximale SSL-TPS widerspiegelt. So wird sichergestellt, dass keine zusätzlichen Gebühren für TPS-Lizenzen oder Co-Prozessor-Karten anfallen. Bedenken Sie jedoch, dass am unteren Ende der SSL-Leistung der Hauptvorteil des SSL-Offloads auf dem Application Delivery Controller in der Fähigkeit liegt, HTTPS-Pakete zu entschlüsseln und Entscheidungen über Ausgleich und Persistenz auf Layer 7 zu treffen.

Direct Server Return (DSR)

Bei einigen Anwendungen kann es wünschenswert (oder erforderlich) sein, dass der eigentliche Server direkt auf die Client-Anfragen antwortet - ohne den Umweg über den Application Delivery Controller. Der Hauptvorteil von Direct Server Return (DSR) besteht darin, dass die Server unter Umgehung des Application Delivery Controllers große Datenmengen (z. B. Streaming-Videos, große Seitenladungen, Dateiübertragungen usw.) direkt an den Client übertragen können, wodurch die mit einem Application Delivery Controller verbundene Latenzzeit vermieden wird - und somit die Leistung der Anwendung und der Website gesteigert wird. Auch wenn ein Application Delivery Controller DSR unterstützen kann, ist zu beachten, dass DSR eine Layer-4-Funktion ist und daher alle Layer-7-Funktionen (wie z. B. die Cookie-Persistenz) in dieser Konfiguration nicht zur Verfügung stehen.

Transparenz

Ein Application Delivery Controller wird häufig als "NAT"-Gerät konfiguriert. Das bedeutet, dass bei der Kommunikation des Application Delivery Controllers mit einem echten Server die IP-Adresse des "Clients", die dem Server präsentiert wird, die des Application Delivery Controllers ist und nicht die des tatsächlichen Benutzers, der eine Anfrage stellt. In manchen Umgebungen kann dies ein Problem darstellen, da die ursprüngliche IP-Adresse des Clients nicht in den Protokollen des Servers enthalten ist. Um dieses Problem zu lösen, bieten einige Application Delivery Controller eine Funktion namens "Transparency" an, mit der Administratoren die IP-Adresse eines Clients in ihren Serverprotokollen beibehalten können. Es gibt einige wichtige architektonische Kompromisse, die eingegangen werden müssen, wenn Transparenz erforderlich ist. Bitte konsultieren Sie daher das Handbuch des Application Delivery Controllers oder wenden Sie sich an den Hersteller, um Unterstützung zu erhalten.

HTTP-Komprimierung

Die HTTP-Komprimierung reduziert die für HTTP-Objekte zu übertragende Datenmenge, indem sie die in allen modernen Webbrowsern verfügbare gzip-Komprimierung nutzt. Die HTTP-Komprimierung ermöglicht es den Application Delivery Controllern, die Nutzdaten der Anwendung innerhalb jedes Pakets zu komprimieren. Insgesamt wird der Bandbreitenverbrauch des Netzwerks reduziert, ohne die Qualität der Inhalte zu beeinträchtigen, und das Gesamterlebnis der Endbenutzer wird verbessert. Die HTTP-Komprimierung, die auf einem Application Delivery Controller läuft, entlastet die Server von dieser prozessorintensiven Aufgabe.

HTTP-Caching

Application Delivery Controller mit Caching-Funktionen dienen als Proxy-Caches, in denen ausgewählte Daten von Ursprungsservern gespeichert werden, um die Bereitstellung an die Clients zu beschleunigen. Die Kombination aus Caching und Komprimierung kann einen doppelten Nutzen bringen, da die Geräte vorkomprimierte Objekte aus dem Cache zurückgeben können, anstatt sie von den Ursprungsservern abzurufen. Durch Caching können die Transaktionsraten erheblich gesteigert und die Antwortzeiten verkürzt werden, während gleichzeitig die Server für andere Aufgaben entlastet werden. Chatty-Protokolle wie HTTP erfordern einen häufigen Auf- und Abbau von Verbindungen, was zu einer unnötigen Ressourcenauslastung der Server führt. Application Delivery Controller mit Caching-Funktionen ermöglichen es Ihnen, verbindungsbezogene Ressourcen für relevantere Geschäftslogik umzuwidmen.

Intrusion Prevention

Zur Verbesserung der Sicherheit bietet ein Application Delivery Controller mit Intrusion Prevention System (IPS) einen Inline-Schutz von Bandbreite und Servern, indem Angriffe in Echtzeit abgewehrt und Server isoliert werden können. Intrusion Prevention bietet Echtzeit-Warnungen bei Eindringlingen.

Resource-based Load Balancing

Ressourcenbasiertes Load-Balancing ermöglicht die Verwendung einer Skriptsprache, um benutzerdefinierte Load-Balancing Methoden, beliebige Verkehrsmanipulationen und vieles mehr bereitzustellen.

Zusammenfassung

Die Komplexität der Technologie, die für die Verwaltung der Web-Infrastruktur in kleinen und mittleren Unternehmen und für Managed-Hosting-Dienste erforderlich ist, hat viele neue Herausforderungen mit sich gebracht, denen sich die IT-Mitarbeiter von heute stellen müssen. Die neuen und vielfältigen Technologien, die in Rechenzentren implementiert werden, sind in der Regel mehr als nur ein einziger Webserver und übersteigen oft die Anforderungen an Verwaltung, Leistung und Skalierbarkeit, die diese Unternehmen stellen. Hinzu kommt die Tatsache, dass ein sofortiger und sicherer Zugriff noch nie so wichtig war wie heute. Dennoch verfügen viele Websites noch immer nicht über die erforderliche Web-Infrastruktur, um die entsprechende Zuverlässigkeit, Leistung und Sicherheit zu bieten.

Lernen Sie den Kemp LoadMaster noch heute kennen.


30 Tage Testversion Kontakt Vertrieb