Datensicherung ohne Zeitnot

27.04.2001
Klassische Backup-Methoden bekommen die stark steigenden Datenmengen kaum noch in den Griff. Immer mehr Unternehmen setzen deshalb auf Snapshot-Techniken, die das Zeitfenster reduzieren. Für eine hohe Geschwindigkeit der Datensicherung sorgen dedizierte Speichernetze und Serverless Backup.

Von: Christoph Lange

Die Datenmengen, die Unternehmen speichern müssen, explodieren unaufhaltsam. Durch die steigende Nutzung von Internet und E-Mail sowie den zunehmenden Einsatz von Multimedia-Anwendungen wie Streaming Video werden die Wachstumsraten weiter zulegen. Herkömmliche Backup-Systeme sichern die Daten in der Regel während der Nachtstunden, wenn keine Dateien auf dem Server geöffnet sind. Offene Dateien lassen sich nur mit Zusatzaufwand in einen für das Backup notwendigen konsistenten Zustand bringen. Je größer die Datenmengen werden, umso mehr Zeit nimmt die Sicherung in Anspruch. Dieses so genannte Backup-Zeitfenster überschreitet immer häufiger die maximal mögliche Zeitspanne, in der sichergestellt ist, dass niemand im Netzwerk arbeitet.

Ein zweiter Grund, warum klassische Konzepte nicht mehr greifen: Immer mehr Systeme müssen rund um die Uhr verfügbar sein. Bei Web-Servern, E-Commerce-Anwendungen oder E-Mail-Plattformen ist es nicht mehr möglich, sie für die Sicherung regelmäßig mehrere Stunden offline zu nehmen. Deshalb setzen immer mehr Anbieter auf Snapshot-Techniken, die das Zeitfenster auf wenige Sekunden reduzieren und nachfolgende Änderungen der Dateien auf Blocklevel protokollieren. Die eigentliche Sicherung erfolgt anschließend im Hintergrund, ohne laufende Anwendungen zu beeinträchtigen.

Backup per Snapshot

Snapshots frieren das gesamte File-System für ein bis zwei Sekunden ein und erstellen eine konsistente Kopie der Dateistruktur - von einigen Herstellern wird dieser Vorgang auch als Point-in-Time-Kopie bezeichnet. Für die Erzeugung von Snapshots gibt es zwei Ansätze: Entweder kopieren sie die Struktur des gesamten File-Systems, oder sie setzen eine Ebene tiefer an und erfassen die zu den jeweiligen Dateien gehörenden Speicherblöcke direkt auf der Raw-Partition.

Die Lösung von Network Appliance arbeitet auf der Ebene des proprietären File-Systems, dessen grundsätzliche Funktionsweise mit anderen File-Systemen vergleichbar ist. Die Snapshot-Kopie des File-Systems enthält eine Block-Mapping-Datei, die genau registriert, welche Blocks zu welchen Dateien und Snapshots gehören. Sobald nun eine Datei geändert wird, schreibt die Software den oder die veränderten Blöcke zusätzlich an eine freie Stelle auf der Festplatte. Die ursprünglichen Blöcke bleiben erhalten und bilden zusammen mit den noch nicht geänderten Blöcken die konsistente Snapshot-Version dieser Datei (siehe Abbildung Ticker). Einige Produkte schreiben die während des Backup-Vorgangs geänderten Blöcke statt auf die Festplatte in den Cache, bis die Sicherung beendet ist.

Damit ist ein Backup ohne Zeitdruck möglich. Die zum Zeitpunkt des Snapshots konsistenten Dateien werden nach und nach auf Band geschrieben. Der Bedarf an zusätzlichem Speicherplatz ist deutlich niedriger als bei Lösungen, die Kopien der geöffneten Dateien erstellen. Network Appliance stellt das Snapshot-Directory innerhalb des "aktiven" File-Systems als zusätzliches Verzeichnis zur Verfügung. Dadurch können Anwender die Sicherungversion einer versehentlich gelöschten Datei per einfachem Kopierbefehl wieder herstellen.

Der Spezialist für Storage-Management-Software, Veritas, hat gleich mehrere Snapshot-Varianten im Portfolio. "Netbackup" unterstützt Hardware-Snapshots - auch als Mirroring bekannt - mit den Speichersystemen "EMC Symmetrix" und "HP XP 256". Geplant ist der Support für Lösungen von Compaq, HDS, IBM und Sun.

Software-Snapshots bietet Netbackup mit der Option "Flash Backup", derzeit für Oracle verfügbar, Microsoft-SQL-Server und Exchange sollen folgen. Das "Veritas File System" verwendet so genannte "Storage Checkpoints", um Snapshots zu erstellen. Für Flash Backup hat Veritas einen anderen Ansatz gewählt als Network Appliance. Die Software umgeht das File-System und liest die für das Backup nötigen Dateiinformationen direkt von der Raw-Partition der Festplatte. Aus diesen Angaben baut das Tool eine Mapping-Datei auf, die den Weg zu den Speicheradressen des gesamten Dateisystem-Inhalts weist. Damit kann Flash Backup die gesamte Raw-Partition als eine einzige riesige Datei auf das Sicherungsmedium schreiben. Dies beschleunigt den Backup-Vorgang laut Hersteller erheblich, da wesentlich weniger I/O-Operationen nötig sind als mit File-System-gestützten Snapshot-Verfahren. Server mit sehr vielen Dateien sollen hiervon am stärksten profitieren.

Legato überträgt die Snapshot-Daten ebenfalls als eine einzige große Einheit auf das Bandlaufwerk und kann sie auf Volume-, Verzeichnis- und Dateiebene wieder herstellen. Beim Voll-Backup werden nur die genutzten Blöcke gesichert, das inkrementelle Backup überträgt lediglich die geänderten Blöcke. Das Restore einzelner Dateien ist auch mit der Split-Mirror-Technik für Point-in-Time-Backups von "HP Omniback II" möglich. Für Mainframes sind ebenfalls Snapshot-Lösungen erhältlich, zum Beispiel von BMC für IBM S/390. Computer Associates setzt wie Veritas auf Snapshots, die unterhalb des Dateisystems arbeiten. Die Wiederherstellung ist auf Volume- und Dateiebene möglich.

Einige Hersteller ermöglichen es, mehrere Snapshots zu unterhalten. Network Appliance kann bis zu 20 einrichten, zum Beispiel stundenweise über den Tag oder über einen längeren Zeitraum hinweg verteilt. Damit lässt sich ein Roll-Back zu früheren Versionen durchführen. Laut Network Appliance dauert die Wiederherstellung selbst von Datenbanken mit sehr großen Datenbeständen nur wenige Minuten. Neben dem Einsatz von Snapshot-Technik - häufig in Kombination mit traditionellen Lösungen (siehe Ticker) - lässt sich die Performance der Datensicherung durch dedizierte Speichernetze und Serverless Backup zusätzlich steigern.

Dedizierte Speichernetze

Um die Geschwindigkeit von Backup- und Restore-Operationen zu erhöhen, richten immer mehr Unternehmen dedizierte Speichernetze ein - auch Storage Area Networks (SAN) genannt. An die Stelle des SCSI-Busses zwischen Server und Festplattensystem oder Tape Library treten in der Regel Fibre-Channel-Verbindungen mit einer Bandbreite von 100 MByte/s. SANs befreien das normale Netzwerk von der Backup-Last, da jeder zu sichernde Rechner über FC-Adapter und -Hubs oder -Switches direkt mit den Backup-Servern und Bandgeräten verbunden ist (siehe Abbildung). Da das Fibre-Channel-Protokoll die SCSI-3-Spezifikation nutzt, können Storage-Anwendungen ihre SCSI-Befehle problemlos darüber transportieren.

Fibre-Channel-SANs lassen sich als Arbitrated Loop (AL) und als Switched Fabric (SF) implementieren und können 10 Kilometer überbrücken. Verglichen mit den 25 Metern von SCSI ist dies ein großer Fortschritt. Der Loop verbindet über einen Hub bis zu 126 Geräte miteinander, dieser kann allerdings immer nur mit einem Partner gleichzeitig kommunizieren. Die Fabric dagegen erlaubt gleichzeitige Verbindungen über alle Ports und versorgt bis zu 16 Millionen Geräte.

Serverless Backup

Die Kombination eines SANs mit Serverless Backup ergibt die derzeit leistungsfähigste Sicherungslösung. Dabei schreibt die Festplatte die zu sichernden Daten direkt auf das Sicherungsmedium - in der Regel ein Bandlaufwerk -, ohne dass sie wie bisher üblich über den Backup-Server laufen müssen. Möglich wird dies durch das Extended Copy Command, das auf dem Third-Party-Copy-Command basiert. Die Storage Networking Industry Associaton (SNIA) hat es zur Standardisierung eingereicht. Third Party Copy ist bereits seit Jahren in der SCSI-3-Spezifikation enthalten, wurde aber bisher von den Storage-Herstellern nicht genutzt. In der Storage-Industrie gilt das Extended Copy Command mittlerweile als De-facto-Standard.

Der Sicherungsvorgang läuft beim Serverless Backup folgendermaßen ab: Der Administrator legt über die Backup-Anwendung fest, welche Daten zu sichern sind. Das Programm sendet ein Kommando an den Copy-Agent, der herausfindet, welche Geräte für die gewünschte Operation nötig sind. Anschließend empfängt der Agent die Daten von der Quelle und schreibt sie auf das Ziellaufwerk. Beim Restore läuft das Ganze in umgekehrter Richtung. Voraussetzung für Serverless Backup ist, dass alle Komponenten - Festplatten, Hubs, Switches, Router, Tape Libraries und Backup-Anwendung - das Extended Copy Command unterstützen. Der Copy-Agent kann auf einem Server, einer Workstation oder einer NAS-Appliance sitzen.

Backup-Software und Bandsysteme müssen den gemeinsamen Zugriff auf Tape Libraries unterstützen, da bei SCSI jedes Gerät einem Host zugewiesen ist. Leistungsfähige Shared-Storage-Systeme bieten zudem eine Parallelisierung von Datenströmen - Veritas Netbackup schafft 32 Streams pro Gerät -, Load Balancing und Failover zwischen den Bandlaufwerken. Dies erhöht die Backup-Geschwindigkeit und Ausfallsicherheit.

Zu den Vorreitern bei Serverless Backup zählt Legato mit "Celestra". Die Agent-Architektur nutzt Snapshot-Technik und Extended Copy Command, um Daten direkt zwischen Storage-Devices zu übertragen. Legato unterstützt mit Celestra HP-UX und Sun Solaris.

Auch der "Net Backup Server Free Agent" von Veritas sichert mit Hilfe des Extended Copy Command und unter Verwendung von Snapshots direkt von Festplatte auf Band. Derzeit ist das Produkt für Sun Solaris erhältlich, weitere Plattformen sollen folgen. Der Server Free Agent ist Teil der Vertex-Initiative von Veritas, welche die Verfügbarkeit aller Systeme und Daten erreichen soll. Mit der "V3-Initiative" hat Veritas zudem ein komplexes SAN-Management-Framework entwickelt.

Bei Computer Associates (CA) läuft der Copy Agent auf dem von IBM beigesteuerten SAN-Gateway, einer SAN-Appliance, die sämtliche Funktionen von Hubs, Bridges und Switches integriert. "Arcserve 2000" verwendet das Extended Copy Command, setzt Snapshot-Technik ein und unterstützt Windows NT/2000. Das kostenlos mitgelieferte "Saniti-Framework" bietet eine umfassende Plattform für das Management von SANs.

Anbieter wie Tivoli oder HP sind im SAN-Umfeld ebenfalls aktiv. Beide unterstützen Tape Library Sharing, LAN-free und Serverless Backup und integrieren diese Funktionen mit ihren Frameworks "Tivoli" und "Open View". IBM verfolgt mit der Initiative "Storage Tank" das Ziel, Storage-Umgebungen zu konsolidieren, unabhängig davon, welche File-Systeme im Einsatz sind.

NAS, I-SCSI und FCIP

Daten direkt von Festplatte auf Band zu sichern, ist auch in Network-Attached-Storage-Umgebungen (NAS) möglich. Legato und Network Appliance haben hierfür das Network Data Management Protocol (NDMP) entwickelt. Dabei sendet der Backup-Server lediglich die Command-and-Control-Befehle sowie Informationen zur File-History über das Netzwerk. Inzwischen unterstützen zahlreiche Hersteller NDMP, zum Beispiel Netvault mit der Backup-Software "Backbone 6.03". HP stattet das demnächst erhältliche "Omniback II Version 4.0" ebenfalls mit NDMP-Support aus. Damit lassen sich NDMP-Datenströme von der Festplatte des Network-Appliance-NAS-Filers auf Band schreiben und umgekehrt. Für die Sicherung der Daten setzen die NAS-Anbieter zunehmend auf Snapshot-Technik (siehe oben).

Konkurrenz entsteht Fibre Channel durch neue Entwicklungen für Storage over IP. Anbieter wie Cisco, IBM, Tivoli und Adaptec haben bereits erste Geräte auf den Markt gebracht, die SCSI-Befehle und Storage-Daten mit Hilfe des I-SCSI-Protokolls direkt über IP transportieren und es damit ermöglichen, SANs auf Basis von Gigabit Ethernet aufzubauen. Mit Fibre Channel over IP (FCIP) beteiligt sich ein weiterer Aspirant an dem Wettlauf um die beste Technik für Storage-Netzwerke. FCIP packt Fibre-Channel-Daten in IP-Pakete ein und am Endpunkt wieder aus. Damit lassen sich SANs über IP-Strecken hinweg miteinander verbinden.

Disaster einplanen

Bei aller Euphorie über die neuen Möglichkeiten von Storage Area Networks sollte eines nicht vergessen werden: Die beste Technik nützt nichts, wenn im Ernstfall die Disaster-Recovery-Strategie nicht greift. Deshalb empfiehlt es sich, Katastrophenübungen in regelmäßigen Abständen praktisch durchzuspielen, um im Worst Case auf der sicheren Seite zu sein.