Ausfallsichere Systeme

04.05.2001 von Konrad Kraft
Ob öffentliche Webserver, interne Fileserver oder Produktions-PCs, ein Ausfall kostet Geld und Renommee. Dabei kann man einen Rechner schon mit geringen Mitteln gegen Ausfälle sichern.

Mit dem Internet gewinnen Server eine offenkundigere Bedeutung: Der öffentliche Auftritt jedes Unternehmens steht und fällt mit der Verfügbarkeit der Hardware/Software-Kombination. Ausfälle sind peinlich und können in kurzer Zeit beträchtliche Einbußen an Umsatz und Kunden nach sich ziehen. Aber auch der Ausfall firmenintern genutzter Rechner führt zu einem Arbeitsstopp und kann dadurch recht teuer werden. Die Lösung besteht in ausfallgesicherten Systemen. Doch die professionellen Anbieter solcher Systeme verlangen häufig einen Obolus, der manche Firma erblassen lässt. Die Grenze von 100.000 Mark wird schnell durchbrochen.

Für den engagierten Systemverwalter oder Webmaster stellt sich daher die Frage: Geht es, bei nahezu gleicher Sicherheit, nicht auch billiger? Und es geht - selbst aus einem Standard-PC, der als Server arbeiten soll, lässt sich mit etwas Aufwand ein passabel abgesichertes System herstellen. Vorausgesetzt, man kennt die neuralgischen Stellen, die abgesichert werden müssen.

Probleme bereiten Hardware-Defekte, Netzwerk-Ausfälle, Software-Fehler und Angriffe von außen. Dieser Beitrag geht ausschließlich auf die ersten drei Bereiche ein. Kostengünstige RAID-Systeme, ausfallgesicherte Netzteile, redundante Netzwerkkarten und Software für eine hohe Verfügbarkeit kommen hierfür als Lösung in Frage. Statistiken zeigen übrigens, dass Netzteile und Festplatten die Hauptursachen für Ausfälle sind. Doch die Absicherung fängt bei sehr einfachen Dingen an.

Die kleinen Dinge

Im Bereich der Hardware-Ausfälle zeigen sich immer wieder zwei Ursachen für Fehler verantwortlich: mechanische Defekte und thermische Probleme. Unter mechanischen Defekten kann man neben Kontaktfehler durch Verschmutzung und Korrosion auch den Verschleiß drehender Teile eines Rechners subsumieren, also Festplatten, CD-ROM-Laufwerke und die zahlreichen Lüfter.

Der ständige Luftstrom durch den Rechner bewirkt den Staubsauger-Effekt: Die eingesaugten Partikel lagern sich auf Kontakten ab und sorgen mit der Zeit für Probleme - insbesondere beim Einbau neuer Komponenten. Gleichzeitig verringert die Verschmutzung die Kühlung von Bauteilen. Bessere Gehäuse haben vor den Lüftungsöffnungen ein Filtervlies, das den Staub abhält. Wichtig ist aber, dieses gelegentlich zu reinigen. Ansonsten kann der verringerte Luftdurchsatz zur Überhitzung im PC führen.

Thermische Probleme hängen meist mit defekten Lüftern zusammen. Neben der Temperaturüberwachung beispielsweise im PC-Innenraum haben sich Lüfter mit Tachoausgang bewährt. Fällt ein Lüfter aus oder wird er langsamer, löst der PC einen Alarm aus. Neben de Überwachung eines Lüfters ist auch dessen Dimensionierung nicht zu vernachlässigen. Anhand der Leistungsaufnahme heutiger Netzteile zeigt sich, dass der Leistungshunger selbst von Desktop-PCs in der Spitze bei über 250 Watt liegen kann, die das Gehäuse auch wieder verlassen müssen. Zu kleine Lüfter, Verschmutzung und ungünstiger Aufbau - beispielweise durch schlecht verlegte Flachbandkabel und dicht gepackte schnelle Festplatten - lassen Komponenten rapide altern.

Hohe Temperaturen verkürzen die Lebensdauer. Wird ein elektronisches Bauteil statt bei 25° Celsius Umgebungstemperatur bei rund 50° Celsius betrieben, halbiert sich die projektierte Lebensdauer. Erste Defekte treten dann oft schon nach 24 Monaten auf. Auch bei Festplatten ist ein derartiges Verhalten üblich.

Gart der Computer bei sommerlichen Temperaturen im eigenen Saft, ist der Ausfall quasi vorprogrammiert. Professionelle Server laufen daher meistens in teueren, klimatisierten Räumen. Für den Unternehmer, der einen derartigen Aufwand scheut, bieten sich neuerdings die patentierten, gekühlten Systeme von ITIS an. Hier laufen die Rechner bei niedrigen Temperaturen, von der Umwelt hermetisch abgeschieden, in einem "PC-Kühlschrank".

Günstiges IDE-RAID

Ausfälle von Festplatten sind besonders kritisch, da die Daten auf einer defekten Platte verloren gehen. RAID -Systeme mit redundanter Datenspeicherung auf mehreren Festplatten schützen vor dem Datenverlust. Ein weiterer Vorteil ist die bessere Performance, die durch parallele Schreib- oder Lesevorgänge entsteht. Der Nachteil sind höhere Kosten für Datenträger und spezielle RAID-Controller. Allerdings ist dieser Nachteil gering gemessen am Wiederherstellungsaufwand für einen defekten Datenträger beispielsweise von einem Backup-Band. Dennoch: RAID schützt nicht vor Datenverlusten durch Löschen oder durch Virenbefall!

Der einfachste Fall von RAID ist die Festplatten-Spiegelung oder RAID-1. Hier werden die Daten gleichzeitig auf zwei identische Festplatten geschrieben. RAID-1 stellt trotz des verschwenderischen Umgangs mit Plattenplatz eine verhältnismäßig preiswerte Lösung dar, weil der Aufwand für die Berechnung spezieller Prüfsummen entfällt. Heutzutage gibt es RAID-Controller auch für IDE-Festplatten, wodurch der Preis sehr günstig gehalten werden kann. Hervorzuheben sind Controller der Firma Promise. Beispielsweise ist die ATA/100-Version des Fasttrak RAID-Controller für 350 Mark erhältlich, die ATA/66-Version kostet 280 Mark. Daher sind IDE-RAID-Controller auch für Amateur-Videofilmer und Power-Gamer unter Windows 98 interessant.

Das schnelle IDE-Interface ist sehr empfindlich, was Kabellängen angeht. Insbesondere bei der Verwendung von Wechselrahmen ist Vorsicht angebracht, weil die Übergangskontakte den Transfer erschweren. Im Zweifelsfall sollte man ein Set kaufen, welches für diese Anwendungen getestet wurde.

Die Performance bei Schreibvorgängen bleibt bei RAID-1 gleich, da die Daten parallel auf beide Platten geschrieben werden. Beim Lesen, wenn die Hälfte der Daten von der ersten, die andere Hälfte gleichzeitig von der zweiten Platte angefordert werden, verbessert sich die Geschwindigkeit um den Faktor 1,6 bis 1,8.

Bei einer RAID-0-Konfiguration werden die Daten nicht gespiegelt, sondern auf die Platten verteilt. Dann wird ein ähnlicher Leistungsgewinn - auf Kosten der Datensicherheit - auch beim Schreiben erreicht. Messungen hierzu finden Sie in unserem Beitrag über Ultra-ATA/100. Dort stieg beispielsweise der maximale Datendurchsatz einer IBM Deskstar 75 GXP im RAID-0-Verband aus zwei Platten von 36 auf 72 MByte/s an. Die Praxiswerte beim Lesen erhöhten sich von 13,5 MByte/s auf 20,9 MByte/s.

Die Promise-Controller erlauben den Anschluss von vier IDE-Platten, wobei dann RAID 10 (sprich RAID Eins-Null) zum Einsatz kommt. Mit diesem Verfahren werden die Daten gleichzeitig als so genannte Stripes (Streifen) auf die Platten verteilt und anschließend gespiegelt. Die Verteilung auf die Platten führt zu einem großen Leistungsgewinn bei gleichzeitiger Datensicherheit.

SCSI-RAID

Im Profi-Bereich hat SCSI trotz aller Totsagungen vergangener Jahre die Nase vorn. Auch hier gibt es RAID-1-Lösungen für ein Plattenspiegelpaar, allerdings kosten diese Lösungen auch deutlich mehr: Sowohl Controller wie auch Festplatten sind teurer. Hervorzuheben sind hierbei die Adaptec 131 und 133 Serien, die bei Preisen ab 1000 Mark aber auch mehr Funktionen beherrschen als die einfache Plattenspiegelung. Andere Hersteller wie ICP-Vortex verlangen rund 3000 Mark und mehr für die Controller.

Mit mindestens drei Platten lässt sich mit diesen Controllern auch ein RAID-5-System aufbauen. Der Unterschied ist die Berechnung der Redundanz: Hier werden die Informationen durch eine Prüfsumme abgesichert, aus der sich die Daten im Fehlerfall einer Festplatte sicher wieder zurückrechnen lassen. Durch dieses Verfahren lässt sich Plattenplatz sparen, da in der Kapazitätsbilanz immer nur eine Platte die Fehlerinformationen tragen muss. Bei einem System mit 5x36 GByte Plattenplatz sind also netto 4x36 GByte Platz vorhanden. Die Prüfsummen werden gleichmäßig auf alle Platten verteilt, um die Ausfallchancen zu minimieren.

Der Nachteil von RAID-5 ist der Rechenaufwand: Mit dem schnellen Errechnen der Prüfsummen ist ein ausgewachsener RISC-Prozessor voll beschäftigt. Dies ist auch der Grund, warum solche Systeme nicht ganz billig sind. Bei großen Datenvolumen liegen sie aber ohne Zweifel im Vorteil.

SCSI-RAID mit IDE-Platten

Eine interessante Variante sind die externen Standgehäuse oder 19"-Varianten wie der Brownie AD-600. Hier ist der RAID-Controller in einem externen Gehäuse untergebracht, welches insbesondere für die Bedürfnisse der Festplatten nach guter Kühlung und stabilem Einbau ausgelegt ist. Im Inneren arbeiten kostengünstige IDE-Festplatten. Zum Rechner hin verhält sich dieses externe RAID-System wie eine große SCSI-Festplatte, der Rechner benötigt also keine speziellen RAID-Treiber, sondern nur einen SCSI-Controller. Diese Subsysteme sind auch hinsichtlich Netzteil ausfallsicher gestaltet, laufen stabil und zuverlässig. Nachteilig ist das inzwischen veraltete UltraWide-SCSI-Interface, das lediglich 40 MByte/s übertragen kann. Dadurch ist ein Brownie-RAID langsamer als eine schnelle SCSI-Festplatte.. Auch das intern eingesetzte UDMA/33-Interface entspricht nicht mehr dem aktuellen Standard.

Ein wichtiger Praxisaspekt ist die so genannte Hot-Swap- und Hot-Spare-Funktionalität: Fällt eine Festplatte aus, will man ja nicht stundenlang den Rechner herunterfahren, bis die neue Platte eingebaut und im RAID angemeldet ist. Bei Hot Swap kann die Festplatte deswegen im laufenden Betrieb getauscht werden. Wenn der Controller eine entsprechende Unterstützung bereithält, kann auch der Rebuild-Vorgang nach dem Tausch einer defekten Platte im Laufbetrieb durchgeführt werden. Externe Systeme sind hier wiederum im Vorteil, weil das Betriebssystem nichts von einem Hot Swap mitbekommt. Im Fall der Brownies ist es außerdem möglich, eine Platte als Hot Spare mitlaufen zu lassen. Diese Platte wird nicht mit Daten befüllt, springt aber sofort ein, wenn eine andere Platte ausfällt. Der Rebuild-Vorgang startet dabei automatisch, ohne dass ein Administrator auch nur einen Finger rühren muss.

Software-RAID mit Windows NT und 2000

Windows NT und 2000 ermöglichen es, softwareseitig mehrere Festplatten zu einer RAID-Partition zusammenzufassen. Die schnellen Stripesets (RAID-0) bieten sowohl die Workstation- als auch die Server-Version, die erhöhte Datensicherheit durch Spiegelung (RAID-1) nur der Server.

Problematisch bei der Softwarelösung ist, dass das RAID erst arbeiten kann, wenn das Betriebssystem gestartet ist. Die Systempartition lässt sich damit also nicht absichern. Als Aufbau empfiehlt sich eine kleine Festplatte, auf der nur das Betriebssystem liegt. Für dieses sollte ein schnell erreichbares Backup existieren. Bewährt hat sich hier ein direktes Image auf einer CD-R, mit der ein Restore auf eine neue Bootplatte in wenigen Minuten möglich ist. Das Image muss aber nach jeder Änderung am System neu erstellt werden.

Für die Daten und Programme kommen zwei möglichst gleich große Platten zum Einsatz. Ist eine Platte größer, geht der überschüssige Platz verloren. Durch die Spiegelung sind die Daten ebenso sicher wie auf einem Hardware-RAID untergebracht.

Beim Schreiben ist ein Software-RAID-1 immer langsamer als eine einzelne Platte. Das Betriebssystem muss die Daten doppelt senden und auf beiden Platten ablegen. Anders beim Lesen: Hier werden die Daten abwechselnd von den Platten angefordert. Solange weder Controller noch CPU zum Flaschenhals werden, kann sich so der Datendurchsatz fast verdoppeln.

Fazit RAID

Die Absicherung der Festplatten mittels RAID -Controller ist praktisch ein Muss, um den Rechner ausfallsicher zu machen. Ob man mit der kleinen Lösung eines Spiegelpaars oder mit einem größeren RAID-5-System liebäugelt, ist letztlich eine Frage des Budgets. SCSI ist für Profi-Systeme vorzuziehen, wobei IDE-SCSI-Umsetzer eine interessante Alternative darstellen: Die Platten sind günstig, die Verbindungswege kurz, die Zuverlässigkeit sehr hoch. Empfehlenswert, weil unabhängig, sind die externen, spezialisierten Brownie-RAID-Systeme, die allerdings mit 5000 Mark ohne Festplatten zu Buche schlagen. Software-RAID bietet keinen absoluten Schutz, da die Systempartition nicht abgesichert wird. Dafür ist es, bis auf den zusätzlich nötigen Festplattenplatz, kostenlos.

Absicherung des Netzwerks

Das Thema Netzwerk und Ausfallsicherheit ist naturgemäß heikel. Oftmals sind einzelne Netzwerkkarten in den Rechnern und Servern eingebaut. Sollte diese Komponente ausfallen, ist das Netzwerk nicht mehr verfügbar. Auch die zumeist unbeachteten Hubs und Switches sind oftmals nur einmal vorhanden. Und, last not least, ist auch die Internet-Anbindung selbst häufig ein so genannter "single point of failure". Eine weitere Einschränkung betrifft die heute übliche Anbindung von Servern: Oftmals verfügen die Geräte nur über eine 100-MBit-Netzwerkkarte, die ebenso schnell ist wie die eines einzigen Clients. Greifen mehrere User gleichzeitig auf den Server zu, wird die Serveranbindung zum Flaschenhals. Mit etwas Überlegung und einigen Handgriffen lässt sich dieser Zustand bedeutend verbessern.

Eine mögliche Lösung ist die Einteilung des Netzwerkes in Subnetze, wobei der Server entsprechend viele Netzwerkkarten wie Subnetze erhält. So ist die Last einerseits besser verteilt, andererseits ist beim Ausfall einer Netzwerkkarte nur das jeweilige Segment vom Netz abgehängt. Die Kosten für diese einfachste Lösung sind gering. Für erhöhte Sicherheit sollten auch auf der Router/Switch-Seite für jedes Subnetz unabhängige Geräte vorhanden sein. Dies erhöht den finanziellen Aufwand deutlich.

Eine weitere, elegante Lösung ist der Einbau von Dualport-Netzwerkkarten oder Netzwerkkarten, die einen speziellen Treiber zur Bündelung von Netzwerkverbindungen (Adapter Teaming) mitbringen. Damit lassen sich gleich zwei Fliegen mit einer Klappe schlagen: Die Karten werden alle unter einer IP-Adresse angesprochen - deshalb ist es nach Außen nicht ersichtlich, welche der Karten die Anfrage entgegennimmt oder Daten sendet. Wenn eine Karte ausfällt, übernimmt die zweite Karte deren Datenpakete, ohne dass ein Client etwas davon bemerkt. Bedingung ist freilich, dass der Treiber für das jeweilige Betriebssystem auch vorliegt.

Schneller und sicherer durch Adapter Teaming

Durch das Teaming von Netzwerkkarten lässt sich ein guter Leistungszuwachs in Senderichtung, also vom Server zu den Clients erzielen. Beide Adapter können gleichzeitig Daten verschicken, die dann ein Switch an die Clients transferiert. So lässt sich der vorher beschriebene Flaschenhals bei der Anbindung von Servern verkleinern, ohne dass etwa eine neue Verkabelung notwendig wird. Beim Empfang funktioniert die Beschleunigung durch diese Kanalbündelung jedoch nur, wenn der Switch mitspielt und weiß, dass er diese IP-Adresse an zwei verschiedenen Ports ansprechen kann.

Ein gutes Beispiel für Mehrport-Karten sind die Server-Netzwerkkarten von Intel. Die Karten sind unter der Typenbezeichnung Intel Ether Express PRO 100+ Server Adapter und Intel Ether Express PRO 100+ Dual Port erhältlich. Die erste Baureihe enthält nur einen Ethernet-Chip und muss daher mindestens zwei Mal im Rechner eingebaut werden. Jede Karte belegt wie üblich einen IRQ. Der Dualport-Adapter belegt hingegen nur einen IRQ und natürlich auch nur einen Steckplatz, was in dicht gepackten Serversystemen ein großer Vorteil sein kann. Diese Karte verfügt ebenfalls über zwei Ethernet-Chips, jedoch nur eine einzige PCI-Bridge.

Fazit Netzwerk: Ein Netzwerk ausfallsicher zu machen, ist etwas schwieriger, denn es sind gute Kenntnisse hinsichtlich Routing und Subnetz-Architekturen notwendig. Nur zwei Netzwerkkarten in den Rechner zu stecken, um damit eine Sicherheit zu bekommen, genügt nicht.

Redundante Netzteile

Der Stromversorgung wird oft nicht die Aufmerksamkeit geschenkt, die ihr gebührt, denn schließlich hängt von "Saft" die gesamte Funktion des Rechners ab. Es ist jedoch nicht schwer, für mehr Sicherheit in diesem Bereich zu sorgen.

Netzteile gehören zu den häufigen Ausfallkandidaten. Die Schaltnetzteile müssen eine ernorme Leistung auf verhältnismäßig kleinem Raum umsetzen. Spannungsschwankungen und Spitzenspannungen aus dem selten sinusförmigen Netz kommen hinzu und stressen die Schalttransistoren. Weiterhin spielen thermische Probleme eine wichtige Rolle. Nach einem Jahr Betrieb belegt eine dicke Staubschicht einige Komponenten im Netzteil und erhöht dadurch die thermische Belastung.

Eine gute Lösung bei netzteilrelevanten Problemen ist der Einsatz von redundanten Netzteilen. Diese bestehen aus einer passiven Stromverteilung sowie zwei oder drei Einschüben mit den aktiven, spannungsregelnden Komponenten. Wie bei anderen ausfallsicheren Systemen, ist ein einziger Einschub in der Lage, den Strom für den Server zu liefern, vorausgesetzt, man dimensioniert die Sache entsprechend. Im Normalbetrieb arbeiten beide Netzteile gemeinsam, wodurch die Belastung der einzelnen Bauteile reduziert wird.

Typisch handelt es sich um 2x250- oder 2x300-Watt-Netzteile, die genügend Leistungsreserven besitzen. Ein eingebauter Summer sowie eine Leuchtdiode informieren den Nutzer über den Ausfall eines Netzteil-Einschubs. Erhältlich sind die Netzteile beispielsweise von Enermax und ElanVital . Redundante Netzteile mit hoher Leistung, die von den Abmessungen und Anschlüssen normalen ATX-Netzteilen entsprechen, haben ihren Preis: Zwischen 600 und 1500 Mark kosten die ausfallsicheren Kraftwerke.

Weitere Absicherungen

Eine weitere Komponente der Energiezufuhr steht noch vor dem Netzteil: Mit einer unterbrechungsfreien Stromversorgung (USV) lassen sich oftmals mehrere Fliegen mit einer Klappe schlagen. Einerseits ist im Fall des Stromausfalls für eine gewisse Zeit noch Saft für den Rechner da. Anderseits fungieren bessere USVs auch als Netzfilter und leiten Störungen ab. Sie erleichtern damit den Netzteilen die Arbeit fernab der Stressgrenzen der Schalttransistoren. Eine USV gehört also zu einem ausfallgesicherten Server wie eine RAID-Lösung im Festplattenbereich.

Bei der Dimensionierung der USV sind zwei Parameter entscheidend: Die Ausgangsleistung und die Überbrückungszeit. Bei der Ausgangsleistung sollte man nicht nur den Server selbst berücksichtigen. Ist manuelles Eingreifen zum geregeltem Herunterfahren nötig, muss auch der Monitor mitversorgt werden. Um den Netzwerkbetrieb aufrecht zu erhalten, benötigen auch die Switches und Hubs eine Notversorgung. Auch ist in fensterlosen Serverräumen eine Notbeleuchtung recht nützlich.

Die Überbrückungszeit legt man typisch auf 15 Minuten aus. Dies reicht aus, um hausinterne Störungen (Sicherung) zu beheben. Professionelle USVs teilen dem Rechner über ein serielles Interface den aktuellen Zustand mit. Dadurch kann zum einen bei Stromausfall eine Meldung an den Administrator verschickt werden. Zum anderen informiert die USV den Server kurz vor der vollständigen Entladung, sodass sich dieser selbstständig kontrolliert herunterfahren kann.

Die restlichen PC-Komponenten sind im Serverbetrieb schwerlich redundant auszulegen: Eine doppelte Grafikkarte ist nicht zwingend sinnvoll, da sie im Servereinsatz eine untergeordnete Rolle spielt. Außer bei sehr hochpreisigen Systemen schützen Mehrprozessor-Lösungen auch nicht vor dem Ausfall bei einer defekten CPU. Sowohl Hardwarestörungen auf dem gemeinsamen Bus als auch der Ausfall von Betriebssystem-Threads bringen den PC mit hoher Sicherheit aus dem Tritt.

Sinnvoll ist auf jeden Fall aber die Absicherung des Systemspeichers durch Fehlerkorrekturbits (ECC ). Vorteilhaft sind Rechner, die hierfür Standard-DIMMs verwenden. Proprietäre Bauformen, wie sie beispielsweise Compaq verwendet, kosten mehr als das Doppelte pro Megabyte.

Auf der Hauptplatinenebene ist ein Ausfall verheerend, durch redundante Komponenten aber nicht abzusichern. Es gibt jedoch einen Weg, wie trotzdem der Totalausfall einer Anwendung vermieden werden kann.

Absicherung durch Backup-Server

Die Aufgabe eines Webservers ist ein 24-Stunden-Job, der auch von Wartungsarbeiten nicht unterbrochen werden sollte. Allerdings brauchen Server Pflege, insbesondere die Bauteile, welche einem mechanischen Verschleiß unterliegen. Gerade Festplatten sollte man im Webbereich nach einer Laufzeit von 2-3 Jahren austauschen, bevor die Defekte auftreten. Doch wenn der Server hierzu heruntergefahren wird, muss ein anderer Server einspringen, denn die Internet-Präsenz darf keinesfalls offline sein.

Das einfachste Verfahren ist, einen zweiten Backup-Server aufzustellen, der die gleichen Daten wie der erste Server enthält. Durch Ummappen der DNS-Einträge wird dieser Backup-Server als primärer Server angesprochen und der Hauptserver kann zu Wartungsarbeiten heruntergefahren werden. Der Nachteil ist allerdings, dass dieses Verfahren einen quasi nutzlos herumstehenden Backup-Server erfordert - schließlich steht dieses Gerät während der Backup-Zeit nicht für andere Aufgaben zur Verfügung.

Der zweite Nachteil ist die Synchronisation der Daten: Da die Dateien während der Laufzeit des Hauptservers übertragen werden müssen, diese Replikation aber einige Zeit in Anspruch nimmt, kann es zu Inkonsistenz kommen. So gehen Bestellungen verloren, wenn sie eingehen, nachdem die entsprechende Logdatei vom Hauptserver kopiert wurde und bevor der Backup die Arbeit aufnimmt. Bei der Rückübertragung auf den Hauptserver entstehen die gleichen Probleme erneut. Die einzige Chance, dies zu vermeiden ist, die Website zumindest während des Kopierens zu stoppen.

Clusterlösungen und Clustersoftware

Um diese Schwierigkeiten zu vermeiden, gibt es eine Reihe von Hochverfügbarkeitslösungen, die einen dauerhaften Betrieb der Webseiten erlauben, ohne dem Betreiber Probleme mit der Synchronisation aufzubürden. Exemplarisch sei hier die Clusterlösung von Windows NT Server Enterprise Edition und Windows 2000 Advanced Server vorgestellt. Ähnliche Lösungen existieren für Unix und Red Hat Linux. Bei Clustern arbeiten mehrere autonome Serversysteme mit einem gemeinsam genutzten Datenträger zusammen. Beide Server haben unterschiedliche Aufgaben; es können auch völlig unterschiedliche Programme auf den Knoten des Clusters laufen.

Im Wartungsfall oder Ausfall eines Serverknotens übernimmt der eine verbleibende Serverknoten ohne Verzögerung die Aufgaben des anderen, inaktiven Knotens einschließlich aller darauf laufenden Applikationen. Voraussetzung ist, dass die Daten auf einem gemeinsam erreichbaren Datenträger liegen, sodass jeder Knoten darauf zugreifen kann.

Doch mit dem Clusterserver lassen sich noch weitere nützliche Szenarien einrichten: Die Clusterschicht bildet gegenüber dem Betriebssystem eine Abstraktionsebene für eine Reihe von Ressourcen. Das heißt im Klartext: Auch während des laufenden Betriebs ist eine Zuordnung oder Wegnahme zum Beispiel von IP-Adressen, Servernamen oder kompletten Datenträger möglich. Dienste und Applikationen können zum Lastausgleich auf den anderen Clusterknoten verschoben werden, während der Server läuft. Dies erhöht die Verfügbarkeit erheblich und erleichtert zudem die Administration.

Doch wo Licht ist, gibt es auch Schatten: Die Einrichtung eines Clusters ist beileibe kein Kinderspiel und kann auch einen erfahrenen DV-Fachmann enorm Zeit und Mühe kosten. Günstigerweise greift man hier zu vorkonfigurierten Systemen, die auch im Zusammenspiel mit der Hardware ausgetestet worden sind. Die namhaften großen Hersteller wie Compaq, Dell und HP, aber auch kleinere Firmen wie ITIS bieten solche Systeme an.

Fazit

Ob ein Server stabil läuft oder nicht, fängt oftmals bei Kleinigkeiten an. Schmutz aussperren, Wärme abführen und Stromversorgung sichern sind einfache, aber wirkungsvolle Maßnahmen. Als Nächstes sind Massenspeicher und Netzwerkverbindungen an der Reihe, die mit doppelter Belegung gegen Ausfall gesichert werden. Für den professionellen Einsatz bieten sich Hardware-Software-Kombinationen mit mehreren Rechnern im Clusterbetrieb an, wodurch man einen lückenlosen Betrieb gewährleisten kann.

Nach oben hin sind preislich kaum Grenzen gesetzt, doch mit etwas Umsicht lässt sich auch mit preiswerten Komponenten ein sehr stabiles System aufbauen. Doch der gute Murphy kennt keine Gnade, daher gilt: Vergessen Sie nicht das regelmäßige Backup! (ala)