Anspruchsvolles Bandlaufwerk

16.02.2001
Die neuesten Bandlaufwerke des LTO-Konsortiums IBM, Seagate und Hewlett-Packard sind mit Datentransferraten von 15 MByte/s echte "Roadrunner". Um diese Spitzengeschwindigkeit aber "auf die Straße" zu bringen, ist eine hochwertige Computerausstattung notwendig.

Von: Rainer Graefen

Redundante Festplattensysteme haben heute einen Teil der Datensicherung übernommen. Allein auf diese schnell drehenden, mechanischen Komponenten will sich aber keiner verlassen. Mit zunehmender Digitalisierung aller Informationen und der Tendenz zum Rund-um-die-Uhr-Betrieb bekommen die Backup-Operatoren Probleme mit den herkömmlichen Bandlaufwerken, die immer mehr Daten in immer kürzeren Zeitabschnitten sichern müssen.

IBM, HP und Seagate haben diese Entwicklung vor etwa drei Jahren vorausgesehen und mit der LTO-(Linear-Tape-Open-) Kooperation eine technisch offene Entwicklungsplattform aus der Taufe gehoben. Definiert wurden mit Ultrium und Accelis zwei Techniken, die den Bedarf nach großen Speicherkapazitäten oder nach sehr schnellem Datenzugriff befriedigen sollen. Augenblicklich wird nur die Herstellung von hochkapazitiven Ultrium-Laufwerken forciert, wobei es das Ziel ist, die Speicherkapazität und die Geschwindigkeit alle zwei Jahre zu verdoppeln.

Grundlegend stimmen alle LTO-Mitglieder darin überein, dass Laufwerke und Medien beliebig austauschbar sein sollen und damit den Anwendern den Wechsel des Lieferanten ermöglichen, ohne dass dies negative Auswirkungen auf die Datensicherung hat. Wie die dazu erforderliche Technik aussieht, bleibt den Gründungsmitgliedern und den Lizenznehmern aus der Speicherbranche zu einem größeren Teil selbst überlassen. Jede Entwicklung muss sich aber an einem Referenzband messen, an dem die Einhaltung von Parametern wie Aufzeichnungsverfahren, Spurdichte, Bandlänge und Beschichtung überprüft wird. Damit bringt LTO Kooperation und Wettbewerb - unter dem Begriff Co-Opetition - zusammen. Jeder kann Standardtechnik von anderen Lizenznehmern einkaufen, besitzt aber neben der Pflicht genügend Spielraum für die herstellerspezifischen Funktionen, die letztlich die Kunden überzeugen sollen.

Die Ultrium-Laufwerke und ihr Werdegang

Schon Anfang 2000 stellten Seagate und IBM die ersten Laufwerke vor; Hewlett-Packard zeigte auf der CeBIT im letzten Jahr inoffiziell die ersten Prototypen. Nach zahlreichen Verzögerungen sind nun seit Anfang 2001 die ersten Einzellaufwerke in Stückzahlen verfügbar, von denen eins unserer Redaktion zur Verfügung gestellt wurde. Schon bei der ersten Generation der Ultrium-Laufwerke, dem Sure-store Ultrium 230, hat sich Hewlett-Packard die Co-Opetition zu Herzen genommen und grenzt sich von der Konkurrenz durch zwei Besonderheiten ab:

- Eine Bandgeschwindigkeitsregulierung erlaubt den "Streaming"-Betrieb im Bereich von 6 bis 15 MByte/s.

- Mit der Funktion "One-Button-Disaster-Recovery" ermöglicht ein lokal angeschlossenes Laufwerk die Systemwiederherstellung auf Knopfdruck.

Das interne HP-Laufwerk benötigt den Platz von zwei 5,25-Zoll-Einbauschächten, kommt aber ohne zusätzliche Belüftung aus. Das externe Gerät braucht etwas mehr Raum, bedingt durch das eingebaute Netzteil und einen integrierten, automatisch arbeitenden Terminator. Leuchtdioden auf der Frontseite zeigen die Einsatzbereitschaft an, und dass das Laufwerk beziehungsweise das Band einen Fehler hat. Die vierte LED leuchtet, wenn der Kopf ein Reinigungsband benötigt. Das Band selbst wird leicht angedrückt, eingezogen und auf Knopfdruck wieder ausgeworfen. Versteckt zwischen den Rippen der Frontplatte angebracht, ist noch eine Reset-Taste für den Notfall einer Bandlaufstörung. Hinten angebracht sind die SCSI-ID-Jumper, die 68-polige LVD-SCSI-Buchse und die Stromversorgung. HP will demnächst ein halb so hohes Laufwerk für das "Einsteigersegment" vorstellen, das zwar nur mit halber Geschwindigkeit arbeitet - immerhin noch mit 7,5 MByte/s - aber dafür in jedes Server-Gehäuse passt.

Theoretisch müsste das Ultrium-Laufwerk im Idealfall 54 GByte Daten pro Stunde verarbeiten; mit einer 2:1-Datenkompression sogar das Doppelte. Voraussetzung dafür ist, dass das gesamte Speicher-Subsystem die dazu notwendige Bandbreite besitzt, um kontinuierlich 15 MByte Daten von den Festplatten auf das Bandlaufwerk kopieren zu können.

Teststrecke eignet sich für Schnellläufer

Im Test kam der SCSI-Standard Ultra160 zum Einsatz, der in der Theorie eine Bandbreite von 160 MByte/s besitzt, die sich in der Praxis des Betriebs durch Verwaltungsarbeiten - als Overhead bezeichnet - um zirka 30 Prozent reduziert. Die eingesetzten Festplatten (siehe Kasten) arbeiten mit Burst-Raten von mehr als 40 MByte/s; im Dauerbetrieb erreicht die IBM-Festplatte laut Datenblatt immer noch 35 MByte/s. Die technische Ausstattung ist somit ausreichend.

Die in der Testkonfiguration ermittelten Werten - siehe auch Tabelle - sahen hingegen anders aus. Die Systemfestplatte von IBM erreichte im Durchschnitt 344 MByte/min - das sind 5,7 MByte/s; der RAID-0-Verbund von Fujitsu schnitt - wie erwartet - mit 525 MByte/min (8,75 MByte/s) besser ab, ist aber immer noch weit entfernt von den möglichen Spitzenwerten. Nur das Verify glänzt mit Werten von 865 MByte/min (14,4 MByte/s). "Backupexec" von Veritas begnügt sich dabei allerdings mit der Überprüfung der Checksummen auf dem Band.

Im Versuch, diese Werte zu verbessern, werden diverse Parameter verändert. So ist Ausgangspunkt der Bandlaufwerksparameter die Einstellung von 32-KByte-Blöcken, wie vom Hersteller empfohlen, und ein Pufferbereich von 512 KByte. Mit der Änderung der Blockgröße auf 64 KByte lassen sich noch geringfügige Verbesserungen von drei beziehungsweise sechs Prozent erzielen. Große Blöcke haben jedoch den Nachteil, dass viel Speicherplatz auf dem Band verschwendet wird, und zwar umso mehr, je größer der geschriebene Block ist. Im schlechtesten Fall ist nämlich nur ein Byte davon mit Daten belegt.

Die Auswirkungen der Cache-Größe

Die Änderung des Cache-Speichers auf dem ICP-Controller von 64 MByte auf 128 MByte dagegen hat überhaupt keine Auswirkungen auf die Datentransferrate, weder beim Sichern der Daten noch bei deren Überprüfung, dem "Verify". Bei der Erweiterung des RAID-0-Array um eine vierte Festplatte verschlechtern sich die Messwerte erheblich. Das könnte damit zu tun haben, dass die zusätzliche Festplatte leistungsschwächer als die anderen war.

Ein letzter Eingriff in die Konfiguration betrifft den Einbau eines zweiten SCSI-Controllers, der allein die Daten für das Bandlaufwerk liefern soll. Backup-Hersteller empfehlen diese Konstellation, um den Festplatten-Kontroller nicht durch die zusätzlichen immensen I/O-Anforderungen des Bandlaufwerks zu belasten. Die Datentransferrate des Arrays sinkt erstaunlicherweise auf die Hälfte ab. Dafür verdoppelt sich die Geschwindigkeit beim Verify, wobei kurzzeitig Spitzenwerte von 1900 MByte/min erreicht werden.

Schnelleres Lesen und Schreiben der Daten

Bei der Suche nach den möglichen Ursachen des einigermaßen enttäuschenden Tests bietet sich der ICP-RAID-Navigator an, ein Tool, das der Controller-Software beiliegt. Unter dem Menüpunkt "Statistik" können die Lese- und Schreibtransferraten der physischen Laufwerke wie auch der logischen Host-Laufwerke - also der RAID-Arrays - begutachtet werden.

Danach schwanken die Werte der IBM-Festplatte zwischen null und 24 MByte/s, bei der Fujitsu-Festplatte zwischen null und 12 MByte/s. Am Host-Laufwerk kumulieren die Werte in der Spitze auf 38 MByte/s. Das erklärt, wieso das Einzellaufwerk im Vergleich mit dem RAID-0-Array relativ gute Messergebnisse erzielt.

Schnellere Festplatten bringen also mit Sicherheit Performance-Vorteile, wobei allerdings zu berücksichtigen ist, dass dieses Mehr an Geschwindigkeit in einer realen Umgebung durch ein redundantes, aber langsameres RAID-5-Array möglicherweise wieder "aufgezehrt" wird.

Nicht optimal eingesetzt ist jedenfalls der ICP-Kontroller, der mit 64-Bit-Datenbreite arbeiten kann, in der Testkonfiguration allerdings mit einem 32-Bit-PCI-Slot vorlieb nehmen muss.

Mit Redundanz hat dieses Festplatten-Array nichts zu tun, wie das R in RAID (Redundant Array of Inexpensive Disk) suggerieren könnte, stattdessen mit Geschwindigkeit. Eine Datei wird nämlich in fortlaufenden Streifen von 16, 32, 64 oder 128 KByte Größe auf den Festplatten des Arrays abgelegt. Vor allem große Dateien verteilen sich dadurch auf mehrere "Spindeln" und lassen sich schneller lesen und schreiben. Fällt eine Festplatte aus, sind jedoch alle Daten verloren.

Die Tatsache, dass das Bandlaufwerk im Test nicht zum "Streamen" kommt, sondern nur zu einem gemäßigten Start-/Stop-Betrieb in der Lage ist, hängt wahrscheinlich vom Dateisystem ab. Ein White-Paper von HP, das die Performance des Ultrium-Laufwerks in verschiedenen Umgebungen untersucht, weist ausdrücklich darauf hin, dass nur mit großen Dateien hohe Transferraten zu erzielen sind. Bei vielen kleinen Dateien sollte besser ein Image-Backup verwendet werden. Dabei wird die Festplatte spurweise kopiert und nicht eine Datei nach der anderen, so wie sie Backupexec im Dateisystem vorfindet. Beim Datei-Backup sichert die Backup-Software die Daten nämlich so, wie sie im Dateisystem organisiert sind - eine nach der anderen. Deren Positionen verteilen sich aber zufällig über die Festplatte, so dass die Festplattenköpfe permanent die Spur wechseln müssen, was sehr zeitaufwändig ist. Die daraus resultierenden Performance-Einbrüche sind deutlich im ICP-RAID-Navigator zu sehen und reduzieren die durchschnittliche Transferrate erheblich. Vor dem wöchentlichen Full-Backup empfiehlt sich deshalb der Einsatz eines Defragmentierers, damit die Datenblöcke so weit wie möglich hintereinander liegen.

Das Zusammenspiel mit der Backup-Software

Gegen diese Beschränkungen der Datei-Backups hilft nur moderne Backup-Software. "Omniback II" von Hewlett-Packard kann beispielsweise 32 Datenströme generieren. Die Power Edition des Legato Networker bringt es auf 64 Datenströme, die parallel am Bandlaufwerk anstehen und auf Verarbeitung warten. Das ermöglicht dem Networker einen Datendurchsatz von 100 GByte/h. Wer solche Möglichkeiten in großem Umfang anwendet, muss allerdings feststellen, dass eine Vielzahl von ineinander verschränkten Datenströmen die Wiederherstellung eines Speicher-Subsystems extrem verzögert. Augenmaß ist also bei jeder Optimierung erforderlich, wenn die Datenwiederherstellung ähnlich performant sein soll wie die Datensicherung.

Der Kauf eines Ultrium-Laufwerks für die Datensicherung von Single-Server-Systemen erscheint nach diesem Test nur bedingt sinnvoll. Die Geschwindigkeit liegt mit zirka 6 MByte/s zwar immer noch doppelt so hoch wie bei einem DLT1-Laufwerk von Benchmark, das aber bei Preisen unter 3000 Mark deutlich billiger ist. Für diesen Bereich eignet sich wahrscheinlich das LTO-Einsteigerlaufwerk von HP wesentlich besser.

Sinnvoll scheint uns der Einsatz des Surestore Ultrium 230 erst in einem Backup-Server mit angeschlossener Bandbibliothek. Dann kann es zur Höchstform auflaufen und 1000 GByte Daten im Idealfall in weniger als zehn Stunden sichern. (ok)

Zur Person

Rainer Graefen

ist freier Redakteur in München mit den Spezialgebieten Backup und Speichernetze.