Storage-Techniken im Wettstreit

Die Szenarien

Die im Vorfeld der Tests durchgeführte Untersuchung produktiv eingesetzter Storage-Anwendungen ergab, dass sich die Szenarien in drei Gesichtspunkten voneinander unterscheiden: im relativen prozentualen Anteil von Lese- und Schreibzugriffen, im zufälligen oder sequenziellen Festplattenzugriff und in der typischen Dateigröße. Auf dieser Grundlage entwickelte Miercom die fünf Szenarien für den Vergleichstest.

Im ersten Dateiserver-Szenario sollte der Server einen Applikationsserver imitieren, der kontinuierlich eine Vielzahl zumeist kleiner Lese- und Schreiboperationen ausführt. Charakteristisch für diesen Anwendungsfall sind 80 Prozent Lesezugriffe und 20 Prozent Schreibzugriffe. Die Dateigröße ist auf 4 KByte festgelegt, Plattenzugriffe erfolgen ausnahmslos zufällig. Die gemessenen kumulativen Datentransferraten sind mit weniger als 1 MByte/s relativ niedrig - bedingt durch die Übertragung vergleichsweise kleiner Dateien, die Kombination von Lese- und Schreiboperationen und den zufälligen Zugriff, die sich alle tendenziell leistungsmindernd auswirken. Dieses Szenario ergab für alle drei Storage-Umgebungen eine in etwa vergleichbare Datentransferrate. Nur wenn fünf oder mehr Server gemeinsam auf den Festplattenspeicher zugreifen, liefert die SAN-Umgebung einen geringfügig höheren Gesamtdurchsatz. Ein SAN eignet sich möglicherweise etwas besser für dieses Szenario, wenn davon auszugehen ist, dass mehrere Server parallel auf denselben Festplattenspeicher zugreifen (siehe Bild 1).

Das zweite Dateiserver-Szenario unterschied sich hinsichtlich der Dateigröße: Anstelle einer Begrenzung auf maximal 4 KByte wiesen jeweils 10 Prozent der Dateien eine Größe von 8 und von 16 KByte auf. Damit ließ sich prüfen, wie die Speicherlösungen einen Mix aus kleineren und größeren Dateien bewältigen. Es stellte sich heraus, dass parallel zur Dateigröße der Datentransferdurchsatz anstieg. Doch auch bei diesem Szenario konnten sich weder NAS noch SAN oder die lokale SCSI-Festplatte als klarer Sieger positionieren. Bemerkenswert ist, dass auch beim gemeinsamen Zugriff von fünf Dateiservern auf denselben Plattenspeicher nur ein bis zwei Prozent der gesamten Bandbreite von Gigabit Ethernet beziehungsweise Fibre Channel genutzt wurden - ein Beweis für die immense Transportkapazität dieser Techniken (siehe Bild 2).

Im dritten Testszenario stellten zunächst einer, dann zwei und schließlich fünf Webserver dieselben Webseiten und Dateien bereit. Bei den Festplatten-Operationen handelte es sich ausnahmslos um Lesezugriffe, der Plattenzugriff erfolgte stets zufällig und die Größe der Dateien reichte von 512 Byte (sehr klein; 20 Prozent) bis 128 KByte (relativ groß; 10 Prozent). Die Testresultate sorgten für einige Überraschung, denn beim zufälligen Abruf unterschiedlich großer Dateien lag der NAS-Durchsatz in allen Fällen etwa zweimal höher als der SAN-Durchsatz. Nach dem Hype um die hohe Durchsatzgeschwindigkeit von SANs war die in jeder Situation deutlich bessere Leistung von Gigabit Ethernet gegenüber Fibre Channel SAN alles andere als zu erwarten (siehe Bild 3).

Beim vierten Testszenario lieferten ein, zwei und schließlich fünf Videoserver Streaming-Video. Auch hier handelte es sich bei allen Festplattenoperationen um Lesezugriffe, diesmal allerdings sequenzielle. Die Dateien hatten stets eine Größe von 64 KByte. Dieses Szenario lieferte genau das gegenteilige Ergebnis des Webserver-Tests. Beim sequenziellen Festplattenzugriff auf relativ große, konsistente Dateien war die SAN-Umgebung deutlich leistungsfähiger als die NAS-Umgebung: Der Video-Einzelserver erzielte mehr als die doppelte Leistung. Die fünf Videoserver, die via SAN oder NAS auf dieselben Festplattendateien zugriffen, kamen nahezu auf das Vierfache. Sie erreichten einen kumulierten SAN-Durchsatz von 47 MByte/s und beanspruchten damit etwa die halbe Bandbreite des Fibre-Channel-SANs. Wer umfangreiche Videos von einem Speichersystem aus zentral bereitstellen möchte, ist demnach mit einer SAN-Umgebung am besten beraten (siehe Bild 4).

Im letzten Testszenario schrieben ein, zwei und dann fünf Applikationsserver Ordner und Verzeichnisse als 1 MByte große Dateien auf das Speichersystem. Bei allen Festplatten-Operationen handelte es sich um Schreibzugriffe; der Zugriff auf die Platten erfolgte ausschließlich sequenziell. Diese Anordnung prüft die Übermittlung und das sequenzielle Schreiben großer Dateien auf eine Backup-Speicherplatte und ahmt damit die Server-Sicherung auf ein Bandlaufwerk nach.

Bei diesem Test hatte es den Anschein, als sei in den NAS- und SAN-Umgebungen der größtmögliche Durchsatz für Schreibzugriffe auf die Festplatte erreicht, weil der Einsatz von zwei oder mehr Servern die Datentransferrate gegenüber einem Einzelserver nicht zu steigern vermochte. Das Festplatten-Array Hitachi 5800 erzielte in der SAN-Umgebung einen Spitzenwert von etwa 30 MByte/s. Der Compaq NAS-Server konnte maximal etwa 5 MByte/s auf eine einzelne Festplatte schreiben. Der speziell für SANs konzipierte Speicherknoten von Hitachi war eindeutig leistungsfähiger als der Allzweckserver von Compaq, der für den Test als NAS-Knoten eingesetzt wurde. Ob ein spezialisiertes NAS-Gerät hier einen höheren Durchsatz erzielt hätte, bleibt Spekulation. Den Vergleich der beiden im Test eingesetzten Speicherknoten entschied die SAN-Lösung eindeutig für sich.

Das SCSI-Szenario erbrachte bei der Sicherung eines Einzelservers eine gute Leistung, die sogar mit der Sicherung via SAN vergleichbar war. Beim Backup geht es jedoch darum, eine Kopie der Serverdaten an einem Ort einzurichten und zu pflegen, an dem sie durch einen katastrophenbedingten Serverausfall nicht in Mitleidenschaft gezogen wird. Dies ist bei der lokalen Speicherung auf SCSI-Festplatten nicht gegeben, der getestete Anwendungsfall deshalb in der Praxis nicht relevant (siehe Bild 5).