Backup ohne Server

20.10.2000
Die Einführung eines SAN wird die gewohnten Abläufe in den Backup- und Recovery-Prozessen fundamental ändern. Damit können hochperformante, skalierbare Lösungen aufgebaut werden, die dem exponentiellen Wachstum des gespeicherten Datenvolumens Rechnung tragen.

Von: Berthold Wesseler

Serverless oder LAN-free-Backup - ein Synonym für Backup (und implizit auch Recovery) der Daten unabhängig vom Server und dem vorhanden lokalen Netzwerk - könnte die lang gesuchte "Killer-Applikation" für die neue Generation der Speichernetze werden. Dabei müssen die Daten direkt von der Festplatte auf ein Magnetband gesichert und im Bedarfsfall wieder zurück geschrieben werden; der traditionelle Pfad über den Server wird dadurch umgangen. Zusätzlich zur gesteigerten Backup-/Re-store-Performance steht der Server auch während der Datensicherung vollständig für die Applikationen und ihre User zur Verfügung. Die gemeinsame Nutzung der Bandarchive reduziert die Zahl benötigter Bandlaufwerke, die Netzlast, den Administrationsaufwand und möglicherweise sogar die Backup- und Recovery-Zeiten.

Noch vor wenigen Jahren konnten Rechenzentren in der Nacht ihre Anwendungssysteme problemlos abschalten: nicht nur für Datensicherungen und andere Batch-Jobs, sondern auch für Wartungsarbeiten, Testläufe und Rekonfigurationen. Die nächtlichen "Batch-Fenster" sind geschlossen, seit Kunden aus aller Welt zu jeder Zeit auf die Server zugreifen.

Mangel an Standards

Eine solche Migration ist jedoch nicht nur mangels Standards für das SAN- und Speichermanagement aufwändig. Damit einher geht auch eine Umkehr in der Betrachtungsweise der Ressource Speicher mit gravierenden Auswirkungen auf die IT-Infrastruktur und organisatorische Abläufe. "Im SAN ist der Datenspeicher nicht mehr nur ein Peripheriegerät, das an einen bestimmten Rechner oder Server angeschlossen wird", erklärt ein Storage-Fachberater bei Compaq. "Die Datenspeicher entwickeln sich zu einem aktiven Element in vernetzten Systemen. Dies wird durch die logische Zusammenfassung verteilter Datenspeicher in dem Gesamtsystem SAN erreicht."

Im SAN haben alle Server Zugriff auf alle Daten. Weil die Speicher von den Servern als logische Einheit getrennt sind, kann im Zuge eines dynamischen Lastausgleiches ein gerade freier Server die vom Client benötigten Informationen aus dem Daten-Pool bereitstellen. Die Datenübertragung im Netzwerk läuft auf zwei separaten Wegen: einem für Daten (SAN) und einem für Statusmeldungen sowie Steuerbefehle (LAN).

Die Ressourcen lassen sich in einer SAN-Architektur unabhängig von den Produktivsystemen verwalten. Im Gegensatz zum Network Attached Storage (NAS), der über ein herkömmliches LAN an die Rechner angeschlossen wird, ermöglicht ein SAN die Isolierung der gesamten Speicherumgebung von den Applikationen: Durch die Nutzung eines SAN mit zentraler Verwaltung ist ein IT-Manager nach Erkenntnissen der Marktforscher von IDC in der Lage, mehr als siebenmal so viele Daten zu verwalten als bisher. Nach einer Untersuchung von IT Centrix können durch ein übergreifendes, effektives SAN-Management die Speicherverwaltungskosten um bis zu 57 Prozent reduziert werden.

Moderne Speichernetze können auch eigenständig zusätzliche Aufgaben wie Backup und Recovery übernehmen. Dafür sind bereits einige Produkte - SAN-Komponenten - verfügbar. Zu den Anbietern zählen Computer Associates, Hewlett-Packard, IBM/Tivoli, Legato und Veritas. Auch Sun Microsystems arbeitet im Rahmen der "Jiro"-Initiative an einer Speicherarchitektur auf Basis der eigenen Java-Plattform. Vormals "Store-X" genannt, soll daraus eine Universalplattform für das Management von Speichern, Servern, Applikationen und anderen Geräten entstehen, die in Netzen zusammenhängen.

SAN-Backup: Schnelligkeit ist Trumpf

Auslöser für den Trend hin zum LAN-free-Backup sind laut Meta-Group-Fachmann Kevin McIsaac nicht nur Zeit und Kosten. Die Notwendigkeit eines einheitlichen Managements unterschiedlicher dezentraler Datenlager und einer zuverlässigen Katastrophenvorsorge kommt nämlich noch hinzu. An einer Stelle gespeicherte Informationen müssen unternehmensweit bereitstehen, bei einer Datenflut, die jährlich um 200 bis 300 Prozent wächst. Trotz schneller Netze und Bandlaufwerke ist deshalb mit den herkömmlichen Verfahren eine vollständige Datensicherung nicht möglich. Dazu reichen die Backup-Geschwindigkeiten, die bei den marktführenden Produkten zwischen 10 und 15 MByte/s liegen, nicht aus. Beim Restore größerer Datenbestände sinkt der Durchsatz auf bescheidene 3 bis 5 MByte/s und blockiert den Backup-Server sehr lange.

Fiber-Channel-(FC-)Verbindungen können bei gegebener Taktrate, die auf bis zu 100 MByte/s standardisiert ist, weit über 90 Prozent mit Daten ausgelastet werden. Beim 100 MBit/s schnellen Fast- Ethernet liegt die Nutzlast im realen Betrieb bei 20 bis 40 Prozent. Das ändert sich auch nicht grundlegend beim schnelleren Gigabit-Ethernet.

Für SAN-Produkte gibt das Marktforschungsunternehmen EMF Associates eine Steigerungsrate von 56 Prozent pro Jahr mit 8,9 Milliarden Dollar im Jahr 2000 und 32 Milliarden Dollar im Jahr 2003 an. IBM prognostiziert, dass bis zum Jahr 2002 bereits 70 Prozent aller mittleren und großen Unternehmen ein SAN implementiert haben.

Neue Basis für das Speichermanagement

Damit wird eine neue Basis für das Speichermanagement gelegt, das laut IDC noch mindestens bis zum Jahr 2004 die größte Nachfrage unter allen Systemmanagement-Tools generieren wird. 1999 belief sich das Geschäft mit dieser Softwaregattung nach Einschätzung von Stephen Widen, Direktor der IDC-Marktforschung Storage Software, auf 3,2 Milliarden Dollar. "Dieses Marktvolumen wird sich bis 2004 mehr als verdoppeln, auf 7,6 Milliarden Dollar", so Widen. "E-Commerce wird den Speicherbedarf regelrecht explodieren lassen."

Mit Serverware wird das Fundament für das SAN-Backup gelegt, das dann wieder in die zentrale Überwachung der Server und Applikationen mit Hilfe übergreifender Systemmanagementprogramme eingebettet wird. Speicherapplikationen zur Verwaltung von Daten lassen sich mit dem Fortschritt der Frameworks immer besser in die marktführenden Suites wie "Unicenter" (CA), "TME" (Tivoli), "Patrol" (BMC), "Ecotools" (Compuware) und "Open View" (Hewlett-Packard) einbinden.

So werden meistens über das "Simple Network Management Protocol" (SNMP) Backup- oder Restore-Läufe initiiert. Vor allem werden jedoch fehlgeschlagene Backups oder Restores an die Systemmanagementkonsole gemeldet, so dass der Administrator das Problem erkennen kann. Eine Meldung oder ein Alarm kann dann auch per SMS an ein Handy weitergeleitet werden. "Schon bei der herkömmlichen Datensicherung kommen so die Vorteile eines Speichernetzes in vollem Umfang zum Tragen", erklärt Paul Schuster, Technischer Direktor des Systemintegrators IQ Products in Dornach. "So ist es heute schon üblich, dass mehrere Server auf das gleiche Kassettenarchivsystem zugreifen."

Direkte Sicherung der Daten von Platte auf Band

Seit kurzem lassen sich Laufwerke bei Bedarf unterschiedlichen Servern im SAN zuzuordnen. Der nächste logische Schritt ist laut Schuster "die direkte Sicherung der Daten von Platte auf Band, ohne dass das Produktivsystem durch den Datensicherungsprozess belastet wird." Doch hier hakt es noch. Zwar legt das SAN das Fundament für eine Rezentralisierung der Datenhandhabung. Doch selbst wenn das SAN beim Datentransfer zwischen Speicher und Server transparent bleibt, sind NAS und SAN für das Netz- und Systemmanagement keineswegs transparent.

Vor allem der Datenaustausch und die Interoperabilität stellen heute die eigentliche Herausforderung dar. Die Key-Player am Markt - etwa EMC, Network Appliance und Auspex im NAS-Bereich sowie EMC, die neuen Kooperationspartner IBM und Compaq sowie Hitachi und Storagetek im SAN-Bereich - versuchen ihre eigenen Vorgehensweisen und Managementwerkzeuge zu "Industriestandards" zu machen. Zudem haben sich mehr als ein Dutzend Allianzen gebildet, um eine Konsolidierung im SAN zu erreichen.

Die Produkte von Komponentenanbietern beschränken sich heute noch auf das Monitoring der Infrastruktur und der Systeme. Sie unterstützen in der Regel keine direkte Administration der Speichersysteme und der SAN-Infrastrukturkomponenten. Eine über der SAN-Infrastruktur liegende Schicht von Managementsoftware für die harmonische Zusammenarbeit in einem heterogenen Netz vermisst nicht nur Jürgen Schelbert, Marketing-Manager bei Storagetek: "Die Unternehmen können angesichts ihres ständig wachsenden Speicherbedarfs nicht mehr warten, bis auch diese Normen verabschiedet sind."

Übergreifende Ansätze

Oft streben die Partner nur die Zusammenarbeit der Komponenten gleicher Art (zum Beispiel Switches) oder die Lauffähigkeit einer bestimmten Backup-Software auf einer gemischten Konfiguration an. Es fehlt der übergreifende Ansatz. In diese Bresche springen Anbieter wie Storage-Apps mit ihrer "SAN-Suite"-Produktfamilie oder TIM mit Produkten wie Vixels "SAN Insite 2000" oder "SAN-Symphony" von Datacore. So hat beispielsweise Dell das SAN-Produkt "Power-Fault 530F" vorgestellt, das auf der Softwaretechnologie San.os von Storage-Apps basiert und mehrere Module der SAN-Suite nutzt.

Der SAN-Spezialist Vixel liefert mit Insite 2000 ein SAN-Managementsystem, das auch in heterogenen SANs mit Switches, Hubs, Host-Bus-Adaptern (HBAs) und Servern beziehungsweise Peripheriegeräten verschiedener Hersteller automatisch die Komponenten identifiziert und auf einer zentralen Konsole mit dem jeweiligen Funktionsstatus abbildet, so dass die Administration von Komponenten verschiedener Hersteller überhaupt erst möglich wird.

Umfassendes SAN-Management

SAN-Symphony geht noch einen Schritt weiter und vereinfacht die Verwaltung und Konfiguration von Ressourcen im SAN für Windows-Anwender und nicht nur wie die anderen Tools der SAN-Komponenten selbst. Weil so eine übergreifende, einheitliche Basis gelegt wird, ist "LAN-free"- oder "Server-less"-Backup ohne weiteren Aufwand möglich. Damit werden herstellerorientierte SAN-Inseln aufgelöst. Der Anwender muss sich nicht mehr um Datensicherung oder andere Verwaltungsaufgaben kümmern. Für die Datensicherung werden die zu sichernden Daten einfach einem Backup-Server unter Veritas-, Legato- oder ArcServeBackup-Software zugeteilt. Mit dem Speicherdienstprogramm SAN-Symphony kann der Anwender außerdem quasi "auf Knopfdruck" dynamisch zusätzlichen Speicher einbinden (ohne "Reboot") und auf entfernte Systeme zugreifen.

SAN-Symphony erzeugt ein virtuelles SAN mit einem Storage Domain Server (SDS), das von zentraler Stelle aus verwaltet wird. Die Suite besteht aus den Modulen SAN-Central (zentrale Verwaltung), SAN-Mapper (Konfiguration), SAN-Administrator (Zugriffsrechte), SAN-Cache (Zugriffsbeschleunigung), Time-Vantage (Augenblickskopie) und PC-Mirrors (Spiegelung). Das Ereignisjournal kann überwacht werden und automatisch SNMP-Alarme auslösen. Die Software läuft auf Windows NT und Windows 2000. Daneben werden auch Sun Solaris, HP/UX, IBM AIX, Netware 5.0, Red Hat Linux sowie diverse FC-Switches und FC-Hubs unterstützt. Die nicht mit Fibre Channel angeschlossenen Komponenten werden durch ein Hilfsprogramm als virtuelle FC-Geräte eingebunden.

Vorprogrammierter Ärger

Mit solchen Suiten beseitigen die Hersteller Probleme des Serverless-Backup, die ohne übergreifendes Management durch den konkurrierenden Zugriff auf die Speichersysteme vorprogrammiert sind. Die Backup-Programme müssen um entsprechende Funktionen erweitert werden. So sollte ein Backup-Tool in der Lage sein, ein Laufwerk beim Zugriff anderer Server zwischenzeitlich "einzufrieren", um die Konsistenz des gesicherten Datenbestandes zu gewährleisten. Dieses Einfrieren ist nicht immer möglich; das Serverless-Backup-Tool wird versuchen, das Laufwerk für einen exklusiven Zugriff zu sperren. Auch das ist nicht immer möglich, beispielsweise wenn eine DOS-Box auf das Laufwerk zugreift, der Windows-Explorer damit arbeitet oder eine Applikation eine Datei darin geöffnet hat. Das Problem, wenn kein "Freeze" oder "Lock" möglich ist: Werden Dateien während des Backup-Laufes geändert, kann das dazu führen, dass die gesamte Datensicherung inkonsistent und damit unbrauchbar wird. Abhilfe schaffen Scripts, die alle Logfiles der Backup-Läufe auf entsprechende Fehlermeldungen hin überprüfen.

Die Vorbereitungsphase für Serverless-Backup

Die Probleme verschärfen sich noch, wenn die SAN-Peripherie von Servern unterschiedlichster Couleur genutzt wird, von Netware, Windows, diversen Unix- oder Linux-Derivaten - von Mainframes, Apples Mac-OS oder der AS/400 ganz zu schweigen. Die Meta Group rechnet damit, dass die zunehmende Produktreife von FC-basierenden Systemen im nächsten, spätestens im übernächsten Jahr die technischen Barrieren ausräumt.

"Schon heute müssen DV-Chefs damit beginnen, den Business Case für LAN-free-Backup auszuarbeiten und die organisatorischen und technischen Vorbereitungen treffen, damit sie im Verlauf der nächsten vier Jahre eine Infrastruktur für LAN-freies Backup etablieren können", mahnt McIsaac. Um die Kosten zu minimieren und die Wiederverwendbarkeit zu erhöhen, sollte sich der DV-Chef dabei auf ein einziges Backup-Tool und einen Lieferanten für die Kassettenbibliotheken sowie einen Kassettentyp beschränken.

Zu dem Zeitpunkt, als CA und Tivoli mit den Produkten auf den Markt kamen, sah sich Veritas mit über 4000 verkauften Lizenzen der bereits im Jahre 1998 eingeführten "Shared Storage Option" als Marktführer für SAN-Applikationen. Diese Option ergänzt die Datensicherungslösungen "Backup Exec" und "Netbackup" und erlaubt die gemeinsame Nutzung von Backup-Hardware durch mehrere Server im SAN.

Netbackup ist mit einer einzigen zentralen Bedienschnittstelle ausgestattet. Die mehrstufige Softwarearchitektur ermöglicht ein schnelles und zuverlässiges Backup und Recovery in Installationen mit Datenmengen von mehreren Terabyte bis hin zu Petabyte-Größenordnungen. Die Netbackup-Shared-Storage-Option erlaubt auch in heterogenen Umgebungen die gemeinsame Nutzung von Bandlaufwerken in Fibre-Channel-SANs oder SCSI-Netzwerken, für Server und Workstations unter Windows NT/2000 und Novell Netware.

Storagetek will Netbackup in seine Fibre-Channel-Bandspeichersysteme integrieren. Das Tool fasst dabei die Backup-Ressourcen in einem speziellen Pool zusammen, auf den die Server zugreifen. Die kombinierte Hard- und Softwarelösung unterstützt Applikationen wie Oracle, SAP und Microsoft Exchange auf Unix-, Windows-NT- und Linux-Plattformen, mit Features wie integrierter SAN-Unterstützung, dynamischem Tape Drive Sharing, Snapshot-Backup, Server-freiem Backup sowie Disaster Recovery. Die neue Kombination ermöglicht ein Backup für über 250 Server und Datenvolumina bis 20 Terabyte.

Storagetek verfolgt darüber hinaus mit der Virtualisierung der Bandlaufwerke eines der wohl ehrgeizigsten Projekte. Dahinter steht die Idee, eine Bandbibliothek gleichzeitig für mehrere unterschiedliche Backup-Tools nutzbar zu machen. Denn noch kommen sich verschiedene Backup-Tools ins Gehege, wenn sie gleichzeitig ein und dieselbe Bandbibliothek nutzen wollen. Doch auch andere Hersteller von Peripheriegeräten wie Exabyte und EMC, Marktführer bei Plattenspeichern, arbeiten mit Hochdruck, um das LAN-FreeBackup-Geschäft zu etablieren. Nicht umsonst kooperiert EMC in diesem Bereich eng mit Erzrivalen wie der IBM-Tochter Tivoli.

Denn trotz der vielversprechenden Chancen: Der eigentliche Durchbruch der SAN-Technik hat noch nicht stattgefunden. Ihr Einsatz beschränkt sich auf die Verbindung von Servern und Speichern und die gemeinsame Nutzung der Bandroboter, manchmal auch zur Datensicherung über große Entfernungen. Architekturbedingt kann ein SAN jedoch mehr, vor allem aber das Speichermanagement in einer heterogenen Speichersystemlandschaft zentral unter einer Bedienoberfläche zur Verfügung stellen. Ein einheitliches Dateisystem in einer heterogenen Umgebung und die Einbindung der Mainframes sind noch allzu ferne Zukunftsmusik bei der Weiterentwicklung einer neuen Generation von Serverware. (ok)

Zur Person

Berthold Wesseler

ist freier Journalist in Brühl/Rheinland