Grundlagen: Disk-Subsysteme

08.04.2005 von Beate Herzog
Bei der Auswahl eines Disk-Subsystems gilt es sorgfältig zu selektieren. Schließlich landen dort die kritischen Unternehmensdaten. Grund genug, die Kriterien und den Einsatz von Disk-Arrays eingehend zu betrachten.

Kann es sich um eine Standard-Intel-Lösung handeln oder wird ein Plattform-offenes Array benötigt? Wie umfangreich soll die Ausstattung ausfallen, soll mit Modularität und Skalierbarkeit auch künftigen Anforderungen Rechnung getragen werden? Diese Fragen gilt es vor der Anschaffung eines Disk-Subsystems zu klären. Zudem bestimmen Funktionalitäten in punkto Management und Daten- sowie Ausfallsicherheit die Auswahl.

Im Markt der RAID-Subsysteme tummeln sich zahlreiche Hersteller. Diese stellen Geräte unterschiedlichster Schutz-, Leistungs- und Funktionalitätsklassen für alle Anforderungen im Markt her. An dieser Stelle soll versucht werden, Kriterien für die Entscheidung und den Einsatz von Disk-Arrays zu finden.

Das wichtigste und augenfälligste Unterscheidungsmerkmal von RAID-Subsystemen ist die zugrunde liegende Architektur. Die gröbste Differenzierung kann zwischen Standard- und proprietären Lösungen getroffen werden, konkret also zwischen Intel- und Nicht-Intel-basierten Geräten.

Architekturen

Intel-basierende Lösungen unterscheiden sich kaum von Windows- oder Linux-PCs. Diese verfügen über einen oder mehrere SCSI- oder Fibre-Controller für den externen Anschluss weiterer Rechner sowie ein oder mehrere SCSI-, Fibre- oder ATA-Controller zur Anbindung der Festplattenbänke. Das Betriebssystem wird meist mit Erweiterungen für die Speicherverwaltung und -adressierung und ohne grafische Benutzeroberflächen oder andere Extras ausgeliefert.

Nicht-Intel-basierende Lösungen finden sich ausschließlich im Midrange- und High-End-Markt, wo der Entwicklungsaufwand eigener Hardware und Betriebssysteme durch die Erzielung höherer Margen gerechtfertigt ist. Bevorzugt kommen hier entweder herstellereigene Prozessoren (ASICs, Application Specific Integrated Circuits) mit dedizierten Echtzeit-Betriebssystemen oder Hochleistungs-64-Bit-CPUs wie der PowerPC von IBM/Motorola zum Einsatz. Der spezielle Aufbau dieser Systeme bedingt auch, dass sich Bauteile wie Controller, Netzteile oder Kanalsteckkarten meist nur in Geräten eines Herstellers einsetzen lassen.

Backend bedingt Verfügbarkeit

Die meisten RAID-Subsysteme im Markt sind nur in der Lage, im Backend, also auf der eigentlichen Plattenseite, eine einzige Technologie zu betreiben - entweder ATA, SCSI oder FC/AL (Fibre Channel Arbitrated Loop). Einsteiger-Arrays verfügen lediglich über einen, höchstens zwei Kanäle im Backend, Midrange-Produkte über zwei bis vier Kanäle und High-End-Systeme über vier bis 64 Kanäle. An jeden dieser Kanäle lässt sich, je nach eingesetzter Technologie, eine begrenzte Anzahl an Festplatten anschließen. Dies limitiert die physikalische Obergrenze in der Nettokapazität.

Je wichtiger der physikalische Schutz und die Verfügbarkeit der Daten, desto mehr sollte bei der Anschaffung auf die Möglichkeit des mehrpfadigen Disk-Anschlusses Wert gelegt werden. High-End-Arrays bieten diese Möglichkeit grundsätzlich und Midrange-Systeme lassen sich meist entsprechend konfigurieren. Im Einsteigerbereich verlassen sich die Hersteller größtenteils auf den schieren RAID-Schutz.

Manche Midrange-Systeme sind in der Lage, neben der ursprünglichen Technologie (meist FC/AL) auch ATA-Platten anzuschließen. Hierbei sollte der IT-Manager Leistung, Durchsatz und Bandbreite kritisch betrachten. Auch die Zuverlässigkeit der Technologie ist eine andere als bei SCSI, SSA oder FC/AL. Hinzu kommt, dass ATA auf dem heutigen Stand der Technik den mehrpfadigen Anschluss einer physikalischen Platte nicht wirklich zulässt und somit deren Verfügbarkeit schlicht halbiert.

Frontend

Am Frontend eines Speichersystems befinden sich die eigentlichen Anschlüsse für Rechner und/oder Netzwerkkomponenten. Hier, wie in allen anderen Bereichen, gilt: je höher die Speicherklasse, desto mehr und unterschiedliche Verbindungen sind möglich. Einsteigermodelle besitzen meist nur einen oder zwei Ports eines einzigen Protokolls, meist SCSI oder Fibre Channel.

Midrange-Systeme bieten zwischen zwei und acht dieser Anschlüsse und auch meist die Möglichkeit, mehrere Rechner über einen Port und das SAN anzusprechen (Fan in/Fan out). High-End-Maschinen verfügen über Anschlüsse für bis zu mehreren hundert Rechnern und dutzenden von Betriebssystemen und Protokollen, wie Fibre Channel, FiCON, ESCON, SCSI oder iSCSI. Auführliche Informationen zum Thema iSCSI bieten die Beiträge iSCSI - IP-basierte Speichernetze und iSCSI - Preiswerte SAN-Alternative .

Cache

Alle im Markt angebotenen Systeme verfügen über einen schnellen Cache. Allerdings gibt es auch hier Unterschiede in der Größe und dem Cache-Algorithmus. Müssen Einsteigermodelle mit weniger als ein GByte auskommen und diesen meist noch mit Betriebssystem und anderer Software teilen, stehen Midrange-Systemen zwischen ein und vier GByte zur Verfügung. In High-End-Umgebungen mit vielen anzuschließenden Rechnern, unterschiedlichsten Zugriffsmodi und Tausenden von LUNs wird heute mit vier bis 512 GByte gearbeitet.

Die Größe des Caches sagt aber noch nichts über dessen Wirkungsgrad und Geschwindigkeit aus. Viele preiswerte Systeme verlassen sich auf PC-Standardkomponenten. Ab der Mittelklasse dürfen IT-Verantwortliche teurere und schnellere Speicherkomponenten erwarten. High-End-Systeme mit proprietären Speicherkarten verfügen über die schnellsten im Markt erhältlichen Memory-Module. Die Wirksamkeit eines gecachten Systems hängt allerdings größtenteils vom verwendeten Algorithmus ab. Dieser analysiert den Datenaustausch zwischen den angeschlossenen Rechnern mit den Festplatten und bestimmt die häufigste Zugriffsmethode (Zufalls- oder serieller Zugriff). Daraufhin versucht er, möglichst genau den nächsten angeforderten Block vorauszusagen und diesen in den Zwischenspeicher zu lesen, noch bevor dieser angefordert wird (arbitrierender Cache). Je komplexer das jeweilige System, desto versierter ist dieser Algorithmus. Einsteiger-Modelle verfügen lediglich über einen einzigen, der einen Kompromiss für alle Zugriffsarten darstellt. Midrange-Systeme sind bereits in der Lage, je nach angeforderter Datenart, -menge und -anordnung verschiedene Algorithmen anzuziehen. In High-End-Silos teilt sich der Cache in mehrere so genannte Regionen auf, in denen jeweils der dort am besten geeignete Algorithmus ausgewählt wird.

Die Frage ob gespiegelter Cache oder nicht beantwortet sich relativ leicht: Der Hauptspeicher ist meist die teuerste Komponente am ganzen Subsystem, in High-End-Modellen bis über 50.000 Euro für 16 GByte. Es sind kaum Fälle bekannt, in denen es zu Datenverlust durch fehlerhafte Speicherbausteine oder -komponenten kam. Gute Midrange- und High-End-Systeme machen gespiegelten Cache durch ausgefeilte Selbstüberprüfungen mit zwei- oder gar dreidimensionalen Checksummen überflüssig. Nur Geräte mit weniger versierten Betriebssystemen oder überprüfungsmechanismen müssen sich auf diesen Schutz verlassen.

Modularität und Skalierbarkeit

Vor der Anschaffung eines RAID-Systems sollte geklärt sein, ob das System wächst und ob im Laufe der Nutzung weitere Protokolle, Betriebsplattformen oder Netzwerke hinzukommen. Nicht unwichtig für die Investition sollte auch sein, ob sich das verwendete Betriebssystem mit seinen Steuerungen über APIs und seiner Verwaltung über eine möglichst große Spannweite von Kapazitäten desselben Herstellers und vor allem auch über mehrere Gerätegenerationen hinweg nutzen lässt. Der IT-Manager kann so den Einführungs- und Migrationsaufwand und damit die Betriebskosten wesentlich verringern.

Bei Midrange- und High-End-Systemen bieten die meisten Hersteller die Möglichkeit, bestimmte Komponenten (Frontend-Controller, Cache oder Festplatten) bei einer Aufrüstung auf das jeweils nächst größere System physikalisch oder zumindest kaufmännisch mitzunehmen. Je kleiner und integrierter die Produkte werden, desto geringer ist die Chance solcher einfachen Migrationspfade.

Verfügbarkeit

Unter Verfügbarkeit werden drei wichtige Teilaspekte zusammengeführt. Zum ersten die der einzelnen Systemkomponenten wie Platten, Speicher, Prozessoren, Lüfter und Stromversorgung. Zweitens die des Gesamtsystems und zum dritten die Verfügbarkeit der Daten in einem solchen System für die angeschlossenen Rechner. Ein wichtiges Mittel, um den Dauerbetrieb eines Systems zu erhalten oder gar zu steigern.

Der unwichtigste Aspekt beim Thema Verfügbarkeit ist der der Zuverlässigkeit einzelner Komponenten. Alle ernstzunehmenden Hersteller legen ihre betriebsimmanenten Bauteile wie Harddisk-Laufwerke, Speicher, Prozessoren, Lüfter und Stromversorgung mindestens redundant, meist aber drei- oder mehrfach aus. Somit kommt es nur noch bei Geräten mit Single Point of Failure, also mit Hardware-Achillesfersen, auf die Verfügbarkeit einzelner Bauteile an.

Wichtiger als die Verfügbarkeit der einzelnen Komponenten ist die des gesamten Systems. Hier müssen sich IT-Verantwortliche meist auf die Angaben der Hersteller verlassen. Grundsätzlich gilt jedoch, dass die Verfügbarkeit des Gerätes steigt, je mehr redundante Komponenten verbaut sind und je besser die überwachung der Hardware durch das Betriebssystem ist.

Der entscheidende Faktor für den Anwender eines RAID-Systems ist weder die Verfügbarkeit der einzelnen Komponenten noch diejenige des Gesamtsystems. Wichtig für ihn ist ausschließlich die Verfügbarkeit und Erreichbarkeit der im System gespeicherten Daten. Neben lokalen Maßnahmen wie doppelpfadigem Anschluss von Rechnern über getrennte SAN-Kanäle oder die Anbindung der Festplatten über zwei Kanäle gibt es bei manchen Midrange- und allen High-End-Modellen auch die Möglichkeit der Fernspiegelung der Daten in einen entfernten Standort. Dieser kann zwischen wenigen Metern und Tausenden von Kilometern entfernt sein und garantiert die Erreichbarkeit der gespeicherten Daten auch im Falle des Verlustes eines kompletten Rechenzentrums.

RAID-Technologie

RAID-Technologien schützen Daten vor der Zerstörung durch den physikalischen Ausfall einzelner Festplatten. Hierbei gibt es abhängig von der Art des verwendeten Controllers und den Möglichkeiten des Betriebssystems unterschiedliche Lösungen, die allerdings für alle Systeme der Einsteiger-, Midrange- oder High-End-Kategorie gleich sind.

Grundsätzlich kann zwischen einer Spiegelung der Daten (RAID 1) und der Verteilung der Daten auf mehrere Laufwerke mit Paritäts-Schutz (RAID 4, RAID 5) unterschieden werden. Der RAID-Level 0+1 (auch 0/1, 10, 1+0 genannt) kommt hauptsächlich im Mainframe-Umfeld und somit vor allem im Bereich der oberen Midrange und High-End-Systeme zum Einsatz. Schutz vor dem Ausfall von zwei oder mehr Festplatten bieten RAID 6 sowie Tandbergs RAIDn oder das von Network Appliance entwickelte RAID DP (RAID Double Parity). Ausführliche Informationen zum Thema RAID liefert der Artikel RAID im überblick .

Betriebssystem

Die meisten Einsteiger-Modelle verwenden Intel-Architekturen mit den hier gebräuchlichen Betriebssystemen Windows Server Applikation Kit (SAK - ein reduziertes Windows NT), Windows 2003 oder Linux in unterschiedlichen Distributionen. Einerseits macht dies den Aufbau eines Speichersystems sehr einfach und damit preiswert, andererseits müssen alle Modelle mit den Mängeln und Einschränkungen der jeweiligen Plattform leben. Prozessoren werden über Gebühr mit nicht-speicherrelevanten Operationen belastet, der Hauptspeicher wird zum größten Teil vom Betriebssystem belegt und steht nicht mehr als Cache zur Verfügung und die gesamte Architektur beruht auf ursprünglich nicht für den Storage-Bereich optimierten Bussen wie PCI. Für RAID-Einsteiger stellen diese Systeme jedoch durchaus eine brauchbare Lösung und einen guten Kompromiss zwischen Preis, Kapazität, Leistung und Ausfallsicherheit dar.

Die meisten Midrange- und High-End-Systeme werden mit spezieller Hardware und somit auch mit genau auf die Plattform abgestimmten Echtzeitbetriebssystemen ausgeliefert. Die Arrays gehen wesentlich effizienter mit den ihnen zur Verfügung stehenden Ressourcen um. Somit sind sie leistungsfähiger als diejenigen mit Standard-Betriebssystemen, andererseits bedingt die separate Entwicklung und Wartung natürlich wesentlich höhere Preise. Der Vorteil ist, dass sie sich einfacher und schneller um neue Funktionen erweitern und eventuell auftretende Fehler durch den Hersteller selbst und nicht durch einen Lieferanten beheben lassen. Bei allen Systemen sollte vor der Anschaffung darauf geachtet werden, dass die gewünschten Funktionalitäten für möglichst alle anzuschließenden Betriebsplattformen und einheitlich bedienbar zur Verfügung stehen.

Interne Funktionen

Neben dem physikalischen Schutz der auf den Disk-Drives gespeicherten Daten sind viele Midrange- und alle High-End-Systeme in der Lage, weitere Funktionen im System durchzuführen.

Die wichtigste ist dabei die Replikation der Daten zur Verwendung durch andere Rechner oder Verfahren. Hierbei kann man zwischen der Anfertigung einer physikalischen Kopie (Clone) oder einem Zustandsabbild zu einem bestimmten Zeitpunkt (Point in Time Copy oder Snapshot) unterscheiden. Beide Verfahren haben Vor- und Nachteile. Während die physikalische Kopie natürlich den gleichen Speicherplatz fordert wie das Original, begnügt sich das Abbild mit einer gespeicherten Inhaltstabelle und benötigt nur dann weiteren Speicherplatz, wenn auf die Kopie geschrieben wird und die Originale evakuiert und gesichert werden müssen. Andererseits greifen alle Anwendungen zwar auf verschiedene Abbilder zu, beziehen sich dabei aber immer auf ein und dieselbe physikalische Platte. Dadurch kann es zu Leistungsengpässen kommen, wenn beispielsweise auf eine Datenbank die normalen Anwendungen und gleichzeitig eine Bandsicherung zugreifen wollen. Diese Probleme lassen sich durch das Anfertigen einer kompletten Kopie auf einer separaten Festplatte vermeiden. Des Weiteren besteht für Daten eines Abbildes kein RAID-Schutz. Das bedeutet, dass alle Informationen, die an einem solchen verändert werden, im Falle eines Verlustes des Abbildes wie zum Beispiel beim Ausfall der Stromversorgung, verloren gehen.

Viele RAIDs bieten die Möglichkeit, logische Laufwerke (LUNs) automatisch so über das System zu verteilen, dass diese immer die optimale Leistung erreichen. Hierbei werden die Anfragen an alle LUNs ausgewertet und 'heiße' Volumen (mit vielen Zugriffen) auseinander gezogen und mit 'kalten' Volumen (mit keinen oder nur geringen Zugriffen) auf einem Laufwerk und damit auf einem oder zwei Kanälen zusammengefasst. Je hochwertiger das System ist, desto feiner sind die Optimierungsmöglichkeiten. In fast allen High-End-Modellen steht diese Funktionalität vollautomatisch zur Verfügung. Manche Hersteller gehen sogar noch einen Schritt weiter und optimieren nicht nur auf LUN-Ebene, sondern auch darüber auf Datenbank- und/oder Dateisystemebene.

Fernspiegelung

Erst die Möglichkeiten, Daten synchron oder asynchron automatisiert und transparent in ein System an einem entfernten Standort zu spiegeln, macht ein Disk-Array hochverfügbar und damit für den High-End-Anwender interessant. Synchron bedeutet in diesem Zusammenhang, die Daten - wie bei einer so genannten Host-Level-Kopie - werden auf beide Speichersysteme gleichzeitig geschrieben. Dieser Vorgang gilt auch erst dann als abgeschlossen, wenn der Block in der Maschine am entfernten Standort abgelegt wurde. Die physikalische Grenze dieser Art der Kopplung liegt bei einer Entfernung von knapp zehn Kilometer. Alle Distanzen darüber bedingen eine asynchrone Spiegelung, auch wenn manche Hersteller das Wort synchron gern eigenwillig interpretieren und wesentlich größere Reichweiten angeben.

Asynchron bedeutet, dass die Daten im entfernten System immer um genau die Zeit hinter den Produktionsdaten herlaufen, die benötigt wird, um die Daten über die entsprechende Strecke zu transportieren. Hier kann es sich um wenige Blöcke, allerdings auch um bis zu mehrere Sekunden und damit um bis zu mehrere MByte handeln.

Ab einer gewissen Leitungslänge übersteigen die Kosten für eine Fibre-Leitung diejenigen für die Speichersysteme zum Teil um das Vielfache. Daher ist bei der Beschaffung darauf zu achten, dass das System neben der Standardkopplung über Fibre oder ESCON auch diejenige über TCP/IP beherrscht. Darüber hinaus ist es wichtig, dass alle angeschlossenen Plattformen mit allen Betriebs- und Dateisystemen auf die gleiche Weise durch die Fernspiegelung unterstützt werden.

Neben der reinen Funktion, Daten in einen entfernten Standort zu spiegeln, sollte es zumindest für High-End-Systeme möglich sein, ohne Eingriff von außen und ohne angeschlossene Rechner zur Steuerung, die Produktion in den anderen Standort zu verlagern. Maßnahmen zur Sicherung der Datenintegrität wie beispielsweise das automatische Anhalten von Kanalanforderungen und der Schwenk auf die Ausweichkanäle sollten ebenso selbstverständlich sein wie die Möglichkeit, nach Wiederaufbau der Produktion transparent in den ursprünglichen Standort zurückzukehren. Auch hierbei sollten IT-Manager darauf achten, dass diese Verfahren unabhängig vom angeschlossenen Betriebs- und Dateisystem über alle verwendeten Plattformen gleich funktionieren.

Physikalische und logische Organisation

Die Betrachtung der Organisation eines Plattensystems muss auf zwei Ebenen erfolgen: auf der physikalischen aus der Sicht der Maschine und auf logischer aus der Sicht der angeschlossenen Rechner. Für das Betriebssystem eines RAID-Systems besteht dieses aus einem oder mehreren Controllern, an die jeweils zwei oder mehr Festplatten angeschlossen sind. Die Harddisks werden in RAID-Gruppen zusammengefasst und in diesen verwaltet.

Um die verbauten Kapazitäten den angeschlossenen Rechnern zur Verfügung zu stellen, lassen sich die RAID-Gruppen in kleinere logische Laufwerke unterteilen. Diese werden dann als LUNs an die Fibre-, SCSI- oder iSCSI-Ports des Speichersystems gebunden. Während Einsteiger-Produkte sich auf diese Vorgehensweise beschränken, stellen manche Midrange- und viele High-End-Modelle darüber hinaus auch Funktionen zur Verwaltung und Zusammenfassung solcher logischer Volumen zur Verfügung. Damit können wiederum Aufgaben in das RAID-System geholt werden, die sonst teure CPU-Leistung und teuren Hauptspeicher in den angeschlossenen Rechnern kosten würden, ganz abgesehen von den Lizenzpreisen der einschlägigen Hersteller so genannter Logical Volume Manager (LVMs). Wichtig ist auch hier wieder die Unabhängigkeit der Organisation unterschiedlicher Volumen von den angeschlossenen Betriebs- und Dateisystemen, um unnötigen Aufwand bei der Portierung der Verfahren oder der Einführung neuer Betriebsplattformen zu vermeiden. (mje)

Dieser Artikel basiert auf einem Beitrag von speicherguide.de .