Storage-Techniken im Wettstreit

08.06.2001
Um mit den explodierenden Datenmengen Schritt zu halten, sind leistungsfähige Speichertechniken nötig. NetworkWorld hat untersucht, wann Network-AttachedStorage-Systeme (NAS) eine bessere Performance erzielen als Storage Area Networks (SAN). Zudem verglichen wir die neuen Techniken mit lokaler Speicherung.

Von: Edwin Mier, Kenneth Percy

Es ist noch nicht allzu lange her, dass IT-Profis das Thema Storage als unkomplizierte, um nicht zu sagen uninteressante Komponente der IT-Infrastruktur abtaten. Mittlerweile hat jedoch der Trend zu dedizierten Speichernetzen mit Storage Area Networks (SAN) und Network Attached Storage (NAS) zwei neue Ansätze etabliert, die um die Gunst der Anwender streiten. Um die Leistungsfähigkeit der konkurrierenden Storage-Techniken zu beurteilen, stellte der Partner der NetworkWorld Global Test Alliance, Miercom, im Testlabor mehrere Speicherszenarien nach. Die für die Testinfrastruktur erforderlichen Komponenten steuerten der Anbieter von SAN-Switches, McData, und der Serverhersteller Compaq bei.

Die Testumgebung wurde so eingerichtet, dass sie die für File-, Web-, Video- und andere Applikationsserver typischen Datentransfers zwischen Server und Festplattenspeicher erzeugen konnte. Als Speicherziel dienten wechselweise ein lokales Festplattenlaufwerk mit SCSI-Anbindung, ein über ein Gigabit-Ethernet-LAN (Local Area Network) angeschlossenes Plattenlaufwerk eines NAS-Servers und ein über Fibre-Channel angebundenes Plattenlaufwerk in einem SAN-Festplatten-Array.

Stärken und Schwächen

Die Frage, welche Konfiguration am besten abschnitt, ließ sich nicht eindeutig beantworten. Die Tests zeigten, dass verschiedene Faktoren die Performance beeinflussen. Um bei der Speicherinfrastruktur den richtigen Weg einzuschlagen, ist die Einbindung in die Netzwerkumgebung zu berücksichtigen. Und die Größe der transferierten Dateien, die PCI-Busverbindung und die Art, wie Anwender auf Daten zugreifen, spielen eine wichtige Rolle.

Im Einzelnen ergaben die Tests folgende Erkenntnisse:

- Eine NAS-Umgebung, in der die Daten über ein Gigabit-Ethernet-LAN zwischen Server und Speichersystem transportiert werden, liefert in bestimmten Fällen eine bessere Datentransferleistung als ein SAN, vor allem wenn kleinere Dateien übertragen werden.

- SANs bewältigen sequenzielle Lese- und Schreibzugriffe und große Dateien wesentlich besser als NAS-Systeme - zum Beispiel wenn ein Server Streaming-Video liefert oder große Datenbestände sichert.

- Für die Anbindung eines Servers an ein SAN macht es bezüglich der Leistung kaum einen Unterschied, ob der SAN-Adapter eine 32-Bit- oder 64-Bit-PCI-Verbindung nutzt.

- Anders dagegen in der NAS-Testumgebung: Hier lag die Leistung einer Gigabit-Ethernet-Karte mit einer 64-Bit-PCI-Verbindung generell höher als bei 32 Bit. Die festgestellte Differenz ist mit etwa 10 Prozent allerdings nicht sehr groß.

- Generell gilt, dass Schreibzugriffe auf eine Festplatte mehr Zeit und Ressourcen beanspruchen als Lesezugriffe.

- Bei zufälligen Lesezugriffen - wenn also keine aufeinander folgenden Lesevorgänge stattfinden - war in allen Tests die Datentransferleistung wesentlich niedriger als beim sequenziellen Lesen großer Dateien.

- Bei den zufälligen Lesezugriffen kam die Datentransferleistung über ein Gigabit-Ethernet-NAS fast an die Performance von Lesezugriffen auf eine lokale SCSI-Festplatte heran.

Bei der Bewertung der Testergebnisse sind zwei Aspekte zu berücksichtigen. Zum einen basieren sie auf einem spezifischen Testequipment. Es ist durchaus möglich, dass Festplatten-Arrays anderer Hersteller sich in ihrem Leistungsverhalten unterscheiden. Zum anderen sind die architekturbedingten Unterschiede zwischen SAN-, NAS- und SCSI-Umgebungen so beträchtlich, dass die Testergebnisse nicht direkt miteinander vergleichbar sind.

Die lokale Datenspeicherung mit SCSI-Systemen zum Beispiel liefert in manchen Szenarien die beste Datentransferleistung. Im Gegensatz zu Standalone-Speicherknoten in NAS- oder SAN-Umgebungen unterstützt sie jedoch in der Regel nicht den gleichzeitigen Zugriff mehrerer Server. Zudem nutzten die Tester als NAS-Speicher einen Allzweckserver von Compaq, als Zielknoten der SAN-Umgebung dagegen ein spezielles Plattenspeicher-Array von Hitachi.

So wurde getestet

Um die Testszenarien möglichst realitätsnah zu gestalten, richtete Miercom einen Server so ein, dass er sich wahlweise als E-Mail-, Web-, Datenbank- oder Videoserver nutzen ließ. Dieses System initiierte die einzelnen Storage-Operationen und erzeugte alle Lese- und Schreibabfragen. Letztere wurden zur Verarbeitung je nach Testszenario an unterschiedliche Speicherziele geschickt - in der NAS-Umgebung an einen "Compaq Proliant Server" mit Anschluss an ein IP-gestütztes Gigabit-Ethernet-Netzwerk, in der SAN-Umgebung an ein "Hitachi 5800 Disk Array". In der SCSI-Umgebung diente ein internes Plattenlaufwerk des Applikationsservers als Speicherziel.

Alle drei Szenarien verwendeten denselben Compaq-Server, einen "Proliant ML370" mit zwei 866-MHz-Pentium-III-Prozessoren und 1 GByte Arbeitsspeicher. Lediglich beim Umstieg von der NAS- zur SAN-Umgebung ersetzte ein "Emulex LP7000e" Hostbus-Adapter die Gigabit-Ethernet-Karte von 3Com.

In der SAN- und NAS-Umgebung verglichen die Tester zudem die Datentransferleistung mit 32-Bit- und 64-Bit-PCI-Verbindungen. Die Gigabit-Karte "3C985B-SX" von 3Com lässt sich sowohl in 32-Bit- als auch in 64-Bit-PCI-Slots einsetzen. Der LP7000e HBA dagegen ist in zwei Versionen für 32- und 64-Bit-PCI erhältlich.

Beim SCSI-Szenario war das interne Plattenlaufwerk über den SCSI-Bus direkt mit dem Motherboard des Servers verbunden. Die Tests erfolgten ohne Netzwerkanbindung.

Eine Schlüsselkomponente des Testaufbaus war "Iometer", ein leistungsfähiges Testwerkzeug von Intel. Es eignet sich hervorragend für heterogene Umgebungen, denn es misst und meldet den durchschnittlichen Datentransfer in MByte/s unabhängig davon, ob die Daten an eine lokale SCSI-Festplatte gesendet werden oder über ein Netzwerk - Gigabit Ethernet oder SAN - zu einem externen Ziel. Iometer führt Lese- und Schreibzugriffe auf jedes definierte Plattenlaufwerk durch, zum Beispiel auf eine lokale Festplatte, ein auf einen NAS-Knoten gemapptes Netzlaufwerk oder ein Laufwerk eines entfernten SAN-Festplatten-Arrays.

Das aus einer Client- und einer Serverkomponente bestehende Werkzeug kann Tests auch gleichzeitig auf mehreren Plattformen durchführen und die Ergebnisse zusammenführen. Zudem ist es mit Iometer möglich, auf einem Prozessor mehrere Threads desselben Softwareprozesses unabhängig voneinander parallel auszuführen. Diese Methode nutzte Miercom, um zwei beziehungsweise fünf Server gleichzeitig gegen dasselbe Speicherziel arbeiten zu lassen.

Die Szenarien

Die im Vorfeld der Tests durchgeführte Untersuchung produktiv eingesetzter Storage-Anwendungen ergab, dass sich die Szenarien in drei Gesichtspunkten voneinander unterscheiden: im relativen prozentualen Anteil von Lese- und Schreibzugriffen, im zufälligen oder sequenziellen Festplattenzugriff und in der typischen Dateigröße. Auf dieser Grundlage entwickelte Miercom die fünf Szenarien für den Vergleichstest.

Im ersten Dateiserver-Szenario sollte der Server einen Applikationsserver imitieren, der kontinuierlich eine Vielzahl zumeist kleiner Lese- und Schreiboperationen ausführt. Charakteristisch für diesen Anwendungsfall sind 80 Prozent Lesezugriffe und 20 Prozent Schreibzugriffe. Die Dateigröße ist auf 4 KByte festgelegt, Plattenzugriffe erfolgen ausnahmslos zufällig. Die gemessenen kumulativen Datentransferraten sind mit weniger als 1 MByte/s relativ niedrig - bedingt durch die Übertragung vergleichsweise kleiner Dateien, die Kombination von Lese- und Schreiboperationen und den zufälligen Zugriff, die sich alle tendenziell leistungsmindernd auswirken. Dieses Szenario ergab für alle drei Storage-Umgebungen eine in etwa vergleichbare Datentransferrate. Nur wenn fünf oder mehr Server gemeinsam auf den Festplattenspeicher zugreifen, liefert die SAN-Umgebung einen geringfügig höheren Gesamtdurchsatz. Ein SAN eignet sich möglicherweise etwas besser für dieses Szenario, wenn davon auszugehen ist, dass mehrere Server parallel auf denselben Festplattenspeicher zugreifen (siehe Bild 1).

Das zweite Dateiserver-Szenario unterschied sich hinsichtlich der Dateigröße: Anstelle einer Begrenzung auf maximal 4 KByte wiesen jeweils 10 Prozent der Dateien eine Größe von 8 und von 16 KByte auf. Damit ließ sich prüfen, wie die Speicherlösungen einen Mix aus kleineren und größeren Dateien bewältigen. Es stellte sich heraus, dass parallel zur Dateigröße der Datentransferdurchsatz anstieg. Doch auch bei diesem Szenario konnten sich weder NAS noch SAN oder die lokale SCSI-Festplatte als klarer Sieger positionieren. Bemerkenswert ist, dass auch beim gemeinsamen Zugriff von fünf Dateiservern auf denselben Plattenspeicher nur ein bis zwei Prozent der gesamten Bandbreite von Gigabit Ethernet beziehungsweise Fibre Channel genutzt wurden - ein Beweis für die immense Transportkapazität dieser Techniken (siehe Bild 2).

Im dritten Testszenario stellten zunächst einer, dann zwei und schließlich fünf Webserver dieselben Webseiten und Dateien bereit. Bei den Festplatten-Operationen handelte es sich ausnahmslos um Lesezugriffe, der Plattenzugriff erfolgte stets zufällig und die Größe der Dateien reichte von 512 Byte (sehr klein; 20 Prozent) bis 128 KByte (relativ groß; 10 Prozent). Die Testresultate sorgten für einige Überraschung, denn beim zufälligen Abruf unterschiedlich großer Dateien lag der NAS-Durchsatz in allen Fällen etwa zweimal höher als der SAN-Durchsatz. Nach dem Hype um die hohe Durchsatzgeschwindigkeit von SANs war die in jeder Situation deutlich bessere Leistung von Gigabit Ethernet gegenüber Fibre Channel SAN alles andere als zu erwarten (siehe Bild 3).

Beim vierten Testszenario lieferten ein, zwei und schließlich fünf Videoserver Streaming-Video. Auch hier handelte es sich bei allen Festplattenoperationen um Lesezugriffe, diesmal allerdings sequenzielle. Die Dateien hatten stets eine Größe von 64 KByte. Dieses Szenario lieferte genau das gegenteilige Ergebnis des Webserver-Tests. Beim sequenziellen Festplattenzugriff auf relativ große, konsistente Dateien war die SAN-Umgebung deutlich leistungsfähiger als die NAS-Umgebung: Der Video-Einzelserver erzielte mehr als die doppelte Leistung. Die fünf Videoserver, die via SAN oder NAS auf dieselben Festplattendateien zugriffen, kamen nahezu auf das Vierfache. Sie erreichten einen kumulierten SAN-Durchsatz von 47 MByte/s und beanspruchten damit etwa die halbe Bandbreite des Fibre-Channel-SANs. Wer umfangreiche Videos von einem Speichersystem aus zentral bereitstellen möchte, ist demnach mit einer SAN-Umgebung am besten beraten (siehe Bild 4).

Im letzten Testszenario schrieben ein, zwei und dann fünf Applikationsserver Ordner und Verzeichnisse als 1 MByte große Dateien auf das Speichersystem. Bei allen Festplatten-Operationen handelte es sich um Schreibzugriffe; der Zugriff auf die Platten erfolgte ausschließlich sequenziell. Diese Anordnung prüft die Übermittlung und das sequenzielle Schreiben großer Dateien auf eine Backup-Speicherplatte und ahmt damit die Server-Sicherung auf ein Bandlaufwerk nach.

Bei diesem Test hatte es den Anschein, als sei in den NAS- und SAN-Umgebungen der größtmögliche Durchsatz für Schreibzugriffe auf die Festplatte erreicht, weil der Einsatz von zwei oder mehr Servern die Datentransferrate gegenüber einem Einzelserver nicht zu steigern vermochte. Das Festplatten-Array Hitachi 5800 erzielte in der SAN-Umgebung einen Spitzenwert von etwa 30 MByte/s. Der Compaq NAS-Server konnte maximal etwa 5 MByte/s auf eine einzelne Festplatte schreiben. Der speziell für SANs konzipierte Speicherknoten von Hitachi war eindeutig leistungsfähiger als der Allzweckserver von Compaq, der für den Test als NAS-Knoten eingesetzt wurde. Ob ein spezialisiertes NAS-Gerät hier einen höheren Durchsatz erzielt hätte, bleibt Spekulation. Den Vergleich der beiden im Test eingesetzten Speicherknoten entschied die SAN-Lösung eindeutig für sich.

Das SCSI-Szenario erbrachte bei der Sicherung eines Einzelservers eine gute Leistung, die sogar mit der Sicherung via SAN vergleichbar war. Beim Backup geht es jedoch darum, eine Kopie der Serverdaten an einem Ort einzurichten und zu pflegen, an dem sie durch einen katastrophenbedingten Serverausfall nicht in Mitleidenschaft gezogen wird. Dies ist bei der lokalen Speicherung auf SCSI-Festplatten nicht gegeben, der getestete Anwendungsfall deshalb in der Praxis nicht relevant (siehe Bild 5).

Fazit

Es ließen sich noch viele weitere Szenarien testen. So wäre es beispielsweise interessant zu prüfen, wie das Striping über mehrere Ziellaufwerke die Übertragungsraten beeinflusst oder wie spezialisierte Speichersysteme - zum Beispiel von Network Appliance für NAS oder von EMC für SAN - im direkten Vergleich abschneiden. Jedoch war keiner der beiden Hersteller bereit, seine Produkte in der von uns konzipierten Umgebung zu testen.

Die in den NetworkWorld Labortests ermittelten Daten sind ein erster Schritt zu einer quantifizierenden Beurteilung der Storage-Alternativen. Sie zeigen, dass die Leistungsfähigkeit lokaler, NAS- oder SAN-gestützter Storage-Systeme von den individuellen Anforderungen der jeweiligen Umgebung abhängt. Es stellte sich heraus, dass jeder der drei Ansätze unter bestimmten Anforderungen die beste relative Datentransferleistung lieferte. Ganz offensichtlich ist auf Storage-Techniken das Prinzip "Eine für alles" nicht anwendbar. Die Moral dieser Geschichte: IT-Verantwortliche sollten ihre Storage- Anforderungen genau analysieren, bevor sie sich für ein SAN- oder ein NAS-Speichernetz entscheiden. (cl)

Zur Person

Edwin Mier

ist der Gründer von Miercom, einem Netzwerk-Consulting- und Testing-Unternehmen mit Sitz in Princeton Junction/New Jersey.

Kenneth Percy

ist als Labortestingenieur für Storage-Systeme bei Miercom tätig.