Thomas Krenn Cluster SR2500

Server-Test: Preiswerter Hochverfügbarkeits-Cluster

19.10.2007 von Bernhard Haluschak
Die Redundanz eines Clusters sichert einen hohen Service-Level der Server-Dienste. Wir haben das preiswerte HA-Cluster SR2500 von Thomas Krenn in Hinblick auf die Hochverfügbarkeit von Webservices getestet.

Doch einen möglichen Ausfall eines Servers kann man vorbeugen. Es gibt hierzu verschiedene technische Ansätze: So können etwa kritische Hardwarekomponenten in einem System redundant ausgelegt sein oder fehlertolerante Technologien eingesetzt werden. Dazu zählen zum Beispiel beim Storage die RAID-Funktion oder beim Hauptspeicher die Mirroring- oder Spare-Memory-Technologie.

Noch mehr Sicherheit garantieren redundante Server-Systeme wie etwa Hochverfügbarkeits-Cluster. Diese bestehen in der Regel aus mindestens zwei identischen Servern, die miteinander verschaltet sind. Alle Funktionen und Anwendungen laufen simultan ab, und jedes System kann im Notfall autark unterbrechungsfrei weiterarbeiten. Ist das defekte System wieder betriebsbereit, synchronisieren sich die Server automatisch und arbeiten anschließend parallel weiter.

Das doppelte Lottchen: Der Cluster-Server SR2500 von Thomas Krenn bietet mit zwei identischen Systemen ein hohes Maß an Ausfallsicherheit.

Die Thomas Krenn AG hat uns für einen Test den Hochverfügbarkeits-Cluster SR2500 zur Verfügung gestellt. Dieses System soll extrem fehlertolerant und für Webserver-Anwendungen optimiert sein. Wir haben den Cluster in unserem Labor genauer untersucht. Unser detaillierter Test informiert über Funktionsweise, Installation, Erweiterbarkeit und Handhabung sowie Verwaltung und Support des Cluster-Servers.

Thomas Krenn Cluster SR2500

Das Server-Cluster SR2500 von Thomas Krenn besteht aus zwei 2HE-Rack-Servern die miteinander „verschaltet“ sind. Bei dem System handelt es sich um ein Hochverfügbarkeits-Cluster. Laut Hersteller eignet sich das Gerät besonders für unternehmenskritische Anwendungen im Bereich von Web Services. Da die zwei Systeme identisch aufgebaut sind, beschränkt sich unsere Hardwarebeschreibung auf ein Gerät.

Cool bleiben: Das Kühlsystem des SR2500-Clusters ist von der Konzeption her durchdacht und arbeitet sehr effektiv.

Für die Rechenpower spendiert Thomas Krenn unserem Testkandidaten zwei Quad-Core-Xeon-Prozessoren des Typs E5310 mit 1,6-GHz und je acht MByte L2-Cache. Als Unterbau fungiert das Server-Mainboard S5000PAL von Intel. In den insgesamt acht DIMM-Slots unseres Testgeräts steckt mit zwei je ein GByte FB-DIMM nur die Minimalkonfiguration an Hauptspeicher. Um Systemabstürze durch Speicherfehler zu vermeiden, beherrscht der Server die Memory-Security-Funktionen ECC, Memory Mirroring und Memory Spare.

Mit fünf Steckkartenplätzen per PCI-Riser-Modul lässt der Server einen ausreichenden Spielraum für Erweiterungen. Im Einzelnen besitzt das Gerät zwei x8-PCI-Express-Slots und eine PCI-X-Schnittstelle für Standard-Steckkarten sowie zwei x8-PCI-Express-Slots für Low-Profile-Erweiterungskarten. Um den Server in ein Netzwerk einzubinden, verfügt dieser über zwei Gigabit-Onboard-Controller samt ausgeführten Schnittstellen. Für den Anschluss externer Geräte stehen dem User auf der Rückseite zwei USB-2.0-Ports sowie zwei serielle Schnittstellen zur Verfügung. Zusätzlich kann der Anwender eine USB-2.0-Schnittstelle an der Frontseite benutzen. Darüber hinaus ist je ein Display-Anschluss, gespeist von einem ATI-ES1000-RADEON-Grafikchip, auf der Rück- und Vorderseite verfügbar. Ein Remote-Management-Controller zum Managen des Servers besitzt das System nicht – dieses ist aber optional erhältlich.

Rückseite: Ein Cluster-Knoten des SR2500-Systems besitzt alle notwendigen Anschlüsse für den problemlosen Betrieb – mehr nicht.

Unser Testsystem ist mit vier 160 GByte großen SATA-II-Festplatten von Western Digital ausgestattet. Die Verwaltung der im RAID-5-Verbund arbeitenden HDDs übernimmt der optionale und batteriegepufferte RAID-Controller ARC-1210 von Areca mit 256 MByte Cache. Ein zusätzlicher SATA-II-Controller mit sechs Ports befindet sich onboard. Die Laufwerkskonfiguration des Servers rundet ein Slim-DVD-ROM ab.

Aufgedeckt: Sechs Lüfter und vier Festplatten im RAID-5-Verbund inklusive batteriegepuffertem Cache-RAID-Controller sorgen für eine hohe Ausfallsicherheit.

Um die Temperatur im Inneren des Server-Gehäuses möglichst gering zu halten, besitzt der Thomas-Krenn-Server in drei Gehäusezonen je zwei redundante hintereinander liegende Lüfter. Für die Kühlung des Steckkartenbereichs sind zwei 70-mm-Lüfter verantwortlich. Je zwei 100-mm-Fans übernehmen die Wärmeabfuhr an den beiden CPUs. Die insgesamt sechs Lüfter kühlen zusätzlich die im Frontbereich montierten Festplatten. Alle Lüfter sind als Hotplug-Komponenten ausgelegt und besitzen eine Status-LED für die Anzeige des Betriebszustands. Ebenfalls Hotswap-fähig und redundant sind die zwei 750-Watt-Netzteile mit je zwei integrierten Lüftern und einer LED-Betriebsanzeige.

Thomas Krenn verkauft den Cluster SR2500 in einer Grundversion für 9250 Euro inklusive Mehrwertsteuer. Diese Konfiguration beinhaltet einem Dual-Core-Xeon E5110 1,6 GHz 4ML2 und 1 GByte Hauptspeicher sowie zwei 160 GByte SATA-II-Festplatten und redundante Netzteile pro Server inklusive drei Jahre Premium-Service und Support. Für das von TecChannel getestete System verlangt der Hersteller zirka 10.400 Euro.

Produkt

Cluster SR2500

Hersteller

Thomas Krenn AG

Prozessor

2 x E5310 (Xeon Quad-Core), 1,6 GHz, 2x 8ML2

Hauptspeicher

2 x 1024 MByte FB-DIMM-DDR2-667

Storage-Subsystem

4 x 160 GByte SATA-II-HDD (WD1600YS)

Steckplätze

1 x PCI-X, 3 x x8-PCIe

Weitere Optionen

ARC-1210 4-Port-SATA-II-RAID-Controller inklusive Batteriepack

Software

Cluster Basis-Softwarepaket, Virtuozzo mit 3 VEs, Viruozzo Control Center (VZCC)

Grundpreis

9.50 Euro

Preis Testgerät

10.400 Euro

Preisvergleich & Shop

Preise & Händler

Funktionsweise des Hochverfügbarkeits-Cluster SR2500

Bei dem Thomas Krenn Cluster SR2500 handelt es sich um ein Linux-Hochverfügbarkeits-Cluster (High Availbility Cluster), das im Aktiv-/Passivbetrieb läuft. Solche Systeme kommen dort zum Einsatz, wo die Verfügbarkeit von Server-Diensten sehr hoch sein muss und Single-Points-of-Failure (SPoF) nicht akzeptabel sind. Im Allgemeinen besteht ein Cluster aus minimal zwei Servern, den sogenannten Knoten. Fällt ein Knoten aus, übernimmt automatisch der zweite Knoten die Arbeit (Failover). Zusätzlich können Wartungsarbeiten am System durchgeführt werden, ohne dass die Verfügbarkeit der laufenden Dienste darunter leidet.

Funktionsübersicht: Der schematische Aufbau des Thomas-Krenn-Clusters verdeutlicht die Funktionsweise des Systems. (Quelle: Thomas Krenn AG)

Um die Hochverfügbarkeit des Clusters zu gewährleisten, kommen verschiedene Softwarekomponenten zum Einsatz. Das sind im Einzelnen das Basis-Betriebssystem CentOS 4, der Cluster Manager Heartbeat, die Datenreplizierung mittels DRBD, die Virtualisierungssoftware Virtuozzo und das webbasierende Cluster-Management.

Prinzipiell verwaltet die Software Virtuozzo auf einem der Cluster-Knoten die hochverfügbaren Virtual Environments (VE). Der andere Cluster Knoten startet die entsprechenden VEs erst im Fehlerfall oder durch ein manuell initiiertes Switchover.

Der gesamte Datenbestand beziehungsweise das Filesystem aller VEs wird mittels Distributed Replicated Block Device (DRBD) auf beide Cluster-Knoten in Echtzeit gespeichert. Somit steht jedem Knoten zu jederzeit der aktuelle Datenbestand zur Verfügung.

Cluster Manager Heartbeat

Ein zentraler Bestandteil eines Clusters ist die gegenseitige Überwachung der Knoten auf Aktivität. Unserer Test-Cluster verwendet den Cluster Manager Heartbeat Version1.2, der eine serielle Verbindung sowie eine interne und externe Netzwerkverbindung des Clusters auf Datenverkehr kontrolliert. Das „interne Netzwerk“ ist für die Datenreplizierung DRBD und die interne Kommunikation des Cluster Managers verantwortlich. Dagegen wird das „externe Netzwerk“ für die Anbindung ins allgemeine Hausnetzwerk und die Konfiguration über das Cluster-Management benutzt.

Heartbeat übernimmt die Überwachung der Cluster-Knoten über die oben genannten drei Verbindungen und löst einen Failover aus, wenn auf dem aktiven Knoten ein Fehler auftritt. Zusätzlich kann dieser die Erreichbarkeit der einzelnen Knoten von außen über sogenannte Pingnodes überprüfen.

Server mit Herz: Das Cluster-Management Heartbeat dient zur gegenseitigen Überwachung der beiden Cluster-Knoten. (Quelle: Thomas Krenn AG)

Laut Hersteller kontrollieren die beiden Cluster-Knoten über die drei beschriebenen Kommunikationswege alle fünf Sekunden ihre Verfügbarkeit. Erreichen den passiven Cluster-Knoten über 60 Sekunden lang keine Heartbeat-Informationen, wird eine automatische Cluster-Umschaltung ausgelöst.

Datenreplizierung mit DRBD

Die Linux-basierte Open-Source-Datenreplizierungs-Software Distributed Replicated Block Device (DRBD) erlaubt, sogenannte Shared Nothing Cluster mit verteilten Plattenspiegeln, aufzubauen. Die Lösung benutzt nur lokalen Festplattenspeicher der Knoten. Der Datentransport bei der Replizierung erfolgt entweder über den externen Ethernet-Link oder über die interne Crossover-Ethernet-Verbindung. Somit ist aus Sicherheitsgründen auch eine räumliche Trennung der beiden Cluster-Knoten problemlos möglich.

Datensicherheit: Mit der Datenreplizierungs-Software DRBD stellt das Cluster-System sicher, dass auf beiden Knoten stets der identische Datensatz vorhanden ist. (Quelle: Thomas Krenn AG)

Das Thomas Krenn Cluster verwendet das DRBD Protokoll C. Das Protokoll legt fest, dass eine Schreibanweisung als durchgeführt gilt, wenn das aktive System (Sender) vom passiven Knoten die Rückmeldung bekommt, dass der Datenblock korrekt geschrieben wurde. Das gewährleistet die Datenintegrität des Storage-Systems bei allen möglichen Ausfallursachen der einzelnen Cluster-Knoten.

Das DRBD-Protokoll verwendet keine Datenverschlüsselung. Dies ist beim SR2500-System auch nicht notwendig, da der Datentransport ausschließlich über das interne Netzwerk (Crossover-Kabel) zwischen den beiden Knoten erfolgt.

Virtualisierungssoftware Virtuozzo

Die Virtualisierungssoftware Virtuozzo erstellt isolierte Virtual Environments (VEs) beziehungsweise Virtual Private Server (VPS) auf einem einzigen physikalischen Server. Diese Lösung soll eine optimale Auslastung der Server ermöglichen und die benötigten Ressourcen garantiert zur Verfügung stellen sowie Konflikte zwischen den verschiedenen Anwendungen vermeiden. Die einzelnen unabhängig voneinander agierenden VEs arbeiten als selbstständige virtuelle Server. Sie besitzen eigene Benutzerkonten, IP-Adressen, Prozesse, Konfigurationsdateien und Systembibliotheken.

VZPP: Das Virtuozzo Power Panel hilft dem Anwender bei der Verwaltung einer VE.

Um die Administration des Clusters zu vereinfachen, bietet Virtuozzo dem Anwender unterschiedliche Verwaltungsoberflächen. So ermöglicht das webbasierende Benutzer-Tool Virtuozzo Power Panel (VZPP) den VE-Usern eine VE zu verwalten, zu reparieren oder erneut zu installieren. Darüber hinaus kann der Anwender die Daten der VE sichern und wiederherstellen (Backup, Restore).

VZCC: Mit dem Virtuozzo Control Center ist es dem Administrator möglich, die verschiedenen VEs zentral zu steuern und zu verwalten.

Zusätzlich stellt die Virtualisierungssoftware dem Benutzer die Oberfläche Virtuozzo Control Center (VZCC) zur Verfügung. Diese dient hauptsächlich zur Erstellung neuer VEs und deren Ressourcen-Konfiguration beziehungsweise -Verwaltung.

Erweiterbarkeit und Handhabung

Die Thomas Krenn AG bietet für das Cluster SR2500 eine umfangreiche Palette an aktuellen Xeon-Prozessoren an. Die Spanne reicht von dem Highend-Modell Quad-Core-Xeon E5345 2,33 GHz mit 8 MByte L2-Cache bis hin zur Einsteigerversion Dual-Core-Xeon E5110 1,6 GHz mit 4 MByte L2-Cache. Um den CPU-Austausch vorzunehmen, ist es als Erstes notwendig, den Luftführungskanal zu entfernen. Nach dem Lösen der vier Schrauben des Kühlkörperblocks ist der Weg für einen Prozessorwechsel frei. Nach dieser kleinen Montagehürde erlaubt ein gelöster Sperrhebel die Entnahme der CPU.

Aufwendig: Bevor man die Steckkarten, die CPUs oder die Speichermodule wechseln kann, müssen kleine Montagearbeiten durchgeführt werden.

Ist der Zugang zu den Memory-Steckplätzen durch das Entfernen des Luftleitkanals erst einmal freigelegt, erlauben acht DIMM-Slots eine maximale Bestückung mit 16 GByte FB-DIMMs. Allerdings kostet das den Anwender für zwei Server etwa 2250 Euro.

Aufgrund der vorgeschriebenen Grundkonfiguration mit einem SATA-RAID-Controller mit Batteriepufferung stehen dem Benutzer insgesamt nur zwei Low-Profile-x8-PCI-Express-Slots zur Verfügung sowie ein x8-PCI-Express-Schnittstelle für Standard-Steckkarten. Somit bleibt für individuelle Erweiterungen nur mäßig Spielraum, zumal alle Slots nur per Riser-Modul zugänglich sind. Dieses lässt sich mittels zweier Hebel ohne Werkzeug problemlos aus dem Server entnehmen.

Kartenhalter: Mittels eines Riser-Moduls lässt sich der Server mit bis zu fünf zusätzlichen Steckkarten bestücken.

Unser Test-Cluster SR2500 besitzt einen Festplattenschacht für insgesamt fünf 3,5-Zoll-Laufwerke. Somit erreicht das System unter Verwendung von 1-TByte-Festplatten eine Gesamt-Storage-Kapazität von 5 TByte pro Server. Die Hotswap-fähigen Festplatten montiert der Hersteller in einen robusten Metall-/Kunststoffrahmen. Diese lassen sich ohne Verkanten in die Laufwerksschächte schieben und mit einem Hebelmechanismus problemlos verriegeln.

Blickfang: Die Status-LEDs informieren den Anwender über den Betriebszustand des Servers.

In punkto Betriebsinformationen bieten die einzelnen Server an der Frontseite jeweils sechs Status-LEDs. Eine Power-LED signalisiert den Betriebszustand, eine weitere informiert den Anwender über den Zugriff auf das Storage-Subsystem. Zwei Leuchtdioden geben Auskunft über den Netzwerkverkehr der zwei Onboard-Netzwerk-Controller. Eine Status-LED weist auf einen Fehlerzustand des Systems hin. Für die Erkennung des Servers in einem Rack-Schrank ist eine blaue LED an der Front- und Rückseite inklusive dem entsprechenden Schalter zuständig.

Zusätzlich ist das Server-Mainboard mit einem sogenannten Light-Guided-Diagnostic-System ausgestattet. Es handelt sich dabei um auf der Server-Platine verteilte LEDs, die an den Speicher- und CPU-Sockeln oder an den Systemlüftern sitzen. Sie informieren optisch über die Betriebszustände der entsprechenden Systemkomponenten.

Installation und Verwaltung

Für die schnelle und einfache Inbetriebnahme beziehungsweise Konfiguration des Hochverfügbarkeits-Clusters offeriert Thomas Krenn dem Anwender einen Quick Start Guide. Diese Anleitung erklärt Schritt für Schritt die Hardwareinstallation und die Netzwerkkonfiguration sowie die Funktionsweise der Management-GUI.

Kabel-Wirrwarr: Vor der ersten Inbetriebnahme muss der Anwender das Cluster-System für eine korrekte Funktionsweise entsprechend verkabeln.

Vor dem Starten des Clusters müssen die beiden Server-Einheiten über ein serielles Link-Kabel sowie ein zusätzliches Netzwerkkabel (Crossover) direkt miteinander verbunden werden. Zusätzlich benötigt das System eine Verbindung ins „externe“ Netzwerk. Diese Kommunikationspfade dienen dem Cluster Manager Heartbeat zur Überwachung der beiden Cluster-Knoten. Heartbeat löst einen Failover aus, wenn auf dem aktiven Knoten ein Problem auftritt. Darüber hinaus ist eine Konsole in Form eines Client-PCs erforderlich, welche die Ansteuerung und Kontrolle des Clusters übernimmt.

Steuerzentrale: Die Verwaltung des Server-Systems vereinfacht der webbasierende Cluster Manager. Dieser unterstützt den Anwender bei der Konfiguration und Wartung. Zusätzlich informiert er den Anwender über den Status des Clusters.

Nach dem Hochfahren des Clusters (Knoten1 und Knoten2) gelangt der Anwender per Konsole und den Default-Netzwerk-Einstellungen des Testsystems auf den webbasierten Cluster Manager. Dieser arbeitet auf beiden Servern parallel und ermöglicht eine unkomplizierte Konfiguration und Verwaltung des Clusters. Der Cluster Manager übernimmt folgende Aufgaben:

Info-Screen: Die webbasierenden Statusanzeigen informieren den Administrator über den Zustand der einzelnen Komponenten.

Sind alle Konfigurationseinstellungen im Cluster Manager mithilfe des Quick Start Guide durchgeführt worden, ist der Thomas Krenn Cluster SR2500 für den Produktiveinsatz betriebsbereit. Die Bedienerführung des Cluster Managers ist intuitiv und leicht verständlich. Sind alle hauseigenen Netzwerkparameter bekannt, lässt sich die Installationsprozedur problemlos bewältigen.

Support und Lieferumfang

Die Thomas Krenn AG bietet für ihre Systeme zwei unterschiedliche Servicepakete an. Der Kunde kann je nach Wunsch Serviceverträge von 24 oder 36 Monate Laufdauer mit unterschiedlichen Support-Leistungen abschließen. Zum Hochverfügbarkeits-Cluster SR2500 gehört das Premium-Service-Paket zum Standardlieferumfang.

Das Service-Paket-Premium offeriert 36 Monate lang einen Sicherheits-Update-Service. Sobald ein sicherheitsrelevantes Update für das System verfügbar ist, wird der Kunde informiert. Zu den Leistungen zählen ein telefonischer technischer Support zwischen 6:00 und 22:30 Uhr sowie ein Zugriff auf das Linux- und Microsoft-Expert-Center. Zusätzlich beinhaltet das Paket einen Vor-Ort-Service (Next Business Day). Allerdings kann der Anbieter diesen bis zum nächsten Tag nur gewährleisten, wenn der Kunde werktags bis 13:00 Uhr telefonisch den technischen Support informiert. Die Serviceleistung kann auch samstags in Anspruch genommen werden. Alle Services beschränken sich auf Deutschland, Österreich, Schweiz, Polen, Liechtenstein und die Benelux-Länder.

Das Service-Paket-Business beinhaltet eine Laufdauer von 24 Monaten. Die Support-Leistungen umfassen einen Pickup und Return-Service, einen Treiber- und technischen E-Mail-Support sowie den Zugriff auf die Webseite my.thomas-krenn.com. Zusätzlich hat der Kunde Zugriff auf eine Knowledgebase und Möglichkeiten an der Teilnahme von Online-Schulungen. Ein Express-Vorabaustausch inklusive 30 Tage Installations-Support sowie ein telefonischer Support zwischen 9:00 uns 17:00 Uhr runden das Business-Angebot ab. Alle hier aufgeführten Serviceleistungen sind ebenfalls Bestandteile des Premium-Service-Packs.

Zum zentralen Lieferumfang des Hochverfügbarkeits-Linux-Clusters gehört die Virtualisierungslösung Virtuozzo. Sie erstellt isolierte virtuelle Umgebungen (VEs) auf einem Server. So sind je nach Anzahl der installierten VE die Preise unterschiedlich. Die Kosten liegen bei zehn installierten VEs um die 450 Euro und bei 100 VEs bei 3825 Euro. Zum Standardlieferumfang gehören drei virtuelle Umgebungen ohne Aufpreis.

Zum weiteren Lieferumfang des Clusters zählen zwei Montageschienen für die zwei Rack-Server-Knoten des Clusters und vier Stromversorgungskabel. Für das Server-Mainboard und den SATA-II-RAID-Controller sind Benutzerhandbücher sowie entsprechende Software beigelegt. Die Inbetriebnahme des vorinstallierten Clusters vereinfacht ein Quick Start Guide. Weitere Informationen und Dokumentationen des Systems sind online auf der Thomas-Krenn-Webseite abrufbar.

Vorbetrachtung: Webserver Stress Tool

Um die Hochverfügbarkeit des Clusters zu testen, integrieren wir die Geräte in unser abgeschlossenes Labornetzwerk. Darin befinden sich 15 Windows-Clients sowie ein Domänen-Controller. Die Clients sind an einem Gbit-Switch angeschlossen: Das getestete Cluster verwendet für jeden Knoten jeweils einen Gbit-Link zum Switch.

Für die Benchmarks nutzen wir Webserver Stress Tool 7 Professional von Paessler. Das Programm simuliert eine bestimmte Anzahl von Benutzern (maximal 100), die eine vorgegebene Website gleichzeitig aufrufen. Damit lassen sich die Performance- und das Lastverhalten einer Web-Infrastruktur analysieren.

Konfigurator: Vor dem Start des Webserver-Stress-Tests müssen verschieden Eckdaten des Benchmarks eingegeben werden.

Für unseren Test des Hochverfügbarkeits-Clusters erzeugen wir mit dem Webserver Stress Tool eine konstante Last über einen festgelegten Zeitraum (Time-Test). Dazu lassen wir von einem leistungsfähigen Client mit Gbit-Ethernet-Schnittstelle aus 100 simulierte Anwender auf eine im Test-Cluster erzeugte Webseite zugreifen. Dabei kann jeder aktive Anwender im Fünf-Sekunden-Takt ein Aufruf durchführen.

Messergebnisse: Nach einem Benchmark-Durchlauf erstellt das Webserver Stress Tool ein ausführliches Messprotokoll mit detaillierten Messergebnissen. Diese werden in Textform und in grafischen Diagrammen dargestellt.

Als Ergebnis fasst das Webserver Stress Tool die verschiedenen Messergebnisse in einem Benchmark-Protokoll grafisch und in Textform zusammen. Aus diesem Protokoll analysieren wir ausschließlich nur die Server-Übertragungsbandbreite in Bezug auf die Unterbrechungsdauer des Test-Clusters, bedingt durch einen Failover oder manuellen Switchover des Cluster-Systems. Damit lässt sich die Ausfallzeit des Clusters relativ genau ermitteln.

Webserver Stress Tool: Serverausfall

Wie lang der Cluster bei einem provozierten Ausfall durch Ziehen des Netzsteckers beim aktiven Knoten benötigt, um den passiven Knoten automatisch zu reaktivieren, zeigt die Dauer des Dropouts in dem Datentransferdiagramm des Clusters. Der Kurvenverlauf zeigt grafisch die Ausfallzeit in der Einheit Sekunden an.

Server-Ausfall: Beim simulierten Ausfall des aktiven Cluster-Knotens benötigt das System zirka 90 Sekunden für die Reaktivierung des passiven Knotens.

Webserver Stress Tool: Switchover

Wie lang der Cluster bei einem manuellen Switchover benötigt, um den passiven Knoten zu reaktivieren, zeigt die Dauer des Dropouts in dem Diagramm der Datentransferrate des Clusters. Aus dem Kurvenverlauf können wir die Ausfallzeit in der Einheit Sekunden ermitteln. Das manuelle Switchover wird überwiegend bei dringend notwendigen Wartungsarbeiten der Cluster-Hard- oder Software benötigt.

Betriebspause: Bei einem manuellen Switchover der Cluster-Knoten benötigt das SR2500-Cluster etwa 45 Sekunden, um mit der Arbeit fortzusetzen.

Fazit

Der Thomas-Krenn-Hochverfügbarkeits-Cluster SR2500 hält was er verspricht. In punkto Ausfallsicherheit bietet die Hardware der einzelnen Knoten umfangreiche Sicherheitsfunktionen zu einem guten Preis-Leistungs-Verhältnis. Dazu zählen redundante Netzteile und Lüfter. Das Storage-System arbeitet als RAID-5-Verbund inklusive batteriegepufferten Cache-RAID-Controller. Allerdings hat der Hersteller aufgrund der sensitiven Preisgestaltung statt SAS- nur SATA-II-Festplatten eingesetzt. Der Memory-Controller unterstützt neben der ECC-Funktion zusätzlich noch Memory Mirroring und Memory-Spare. Leider war unser Testsystem nur mit je zwei 1 GByte großen Modulen pro Knoten bestück, sodass nur die ECC-Funktion aktiv arbeitete.

Neben der Hardware erhöhen auch verschiedene Softwarekomponenten die Hochverfügbarkeit des Clusters. Mit dem zentralen Steuerprogramm Virtuozzo und dem Cluster Manager Heartbeat sowie der Replikationssoftware DRBD dauert ein Failover unseres SR2500-Test-Clusters etwa 90 Sekunden. Dagegen benötigt ein manueller Switchover nur die Hälfte der Zeit.

Weitere Pluspunkte des Thomas-Krenn-Clusters sind die einfache Installation, Handhabung und Verwaltung. Ein klar strukturierter Service und Support und ein attraktiver Preis von zirka 10.400 Euro runden den guten Gesamteindruck ab. (hal)