Diplomarbeit Skalierbare Hochverfügbarkeitslösungen mit Lastverteilung für E-Commerce Sites Mai 2000
zurück Inhalt weiter

3.3 Server Load Balancing
Beim Server Load Balancing handelt es sich um einen Verfahren, um Datenströme gleichmäßig auf mehrere Server zu verteilen. Dies ist aus Gründen der Redundanz und der Lastverteilung notwendig. Es existieren eine Reihe von Switches, die speziell für diese Aufgabe konstruiert sind. Diese Technologie ist nicht einheitlich spezifiziert, sondern von Hersteller zu Hersteller unterschiedlich implementiert.

3.3.1 Motivation
Ein modernes Unternehmen ist davon abhängig, dass auf Servern gespeicherte unternehmenskritische Daten schnell und zuverlässig zugänglich sind. Durch die Ausweitung der Geschäftstätigkeit auf das Internet, das sogenannte E-Commerce, steigt die Bedeutung einer funktionsfähigen Serverfarm weiter an.
Da ein Server nur eine begrenzte Anzahl von Aufträgen gleichzeitig bearbeiten kann, werden verschiedene Dienste auf einzelne Server aufgeteilt. So hat fast jedes Unternehmen seinen eigenen Web-Server, E-Mail-Server oder Daten-Server. In vielen Fällen reicht aber ein Server für einen Dienst nicht mehr aus. So müssen z.B. ISPs wie AOL oder T-Online viele der von ihnen verwalteten Webseiten auf mehreren Servern gleichzeitig zu Verfügung stellen, um die enorme Anzahl der Zugriffe bewältigen zu können.119 Für einen Kunden muß diese notwendige Lastverteilung transparent sein, er sollte wie immer mit einer einzigen Adresse auf die gewünschte Webseite zugreifen können.


Abbildung 3.9 : Serverfarm mit redundanten Servern

Gleichzeitig müssen die Server auch permanent verfügbar sein. Gerade für Unternehmen, die einen Großteil ihrer Geschäftstätigkeit mit E-Commerce abwickeln, wie z.B. Amazon, E-Bay oder Online-Banken, ist Hochverfügbarkeit business critical. So schätzt Dell Computers, dass ein Serverausfall dem Unternehmen pro Stunde 580.000 Dollar Verluste bringt.120 Um die Verfügbarkeit von Daten auch bei einem Serverausfall zu gewährleisten, werden diese auf mehrere Server redundant verteilt. So wären z.B. in Abb. 3.9 die Server HTTP1 und HTTP2 alleine vollkommen in der Lage, die Datenlast alleine zu bewältigen. Trotzdem wird noch HTTP3 bereitgestellt, damit die Webseite bei einem Serverausfall trotzdem voll verfügbar ist, ohne dass ein Kunde sich über lange Wartezeiten beim Zugriff ärgern muß.
Notwendig ist also eine Möglichkeit, gleichzeitig auf mehrere Server mit teilweise identischem Inhalt anhand des jeweiligen Dienstes zugreifen zu können, ohne das der Ausfall einer Komponente zu Leistungseinbußen führt.



119vgl. <48>
120aus: <1>
zurück Inhalt weiter