Konzepte verhindern Ärger

Die schlimmsten Fehler bei Backup und Recovery

05.03.2011 von Oliver Mangel und Norbert  Steiner
Wer Backup und Recovery nur als lästige Pflicht versteht, lebt gefährlich. Konzeptionelle Vorarbeit erspart spätere Probleme im Betriebsablauf. Lesen Sie, wie Sie Fehler vermeiden und ein professionelles Konzept für die Datensicherung entwickeln.

Die Datenrettung gehört glücklicherweise nicht zu den täglichen Aufgaben von Storage-Administratoren. Doch die Anforderungen an das tägliche Backup steigen. Wachsende Datenmengen müssen in immer kürzerer Zeit mit minimaler Beeinträchtigung der Produktivsysteme gesichert werden. Engmaschige Compliance-Anforderungen erschweren die Aufgabe zusätzlich.

Trotz dieser Herausforderungen wird die Datensicherung oft wie ein Stiefkind behandelt. Mit Backup und Recovery im Unternehmen ist es wie mit Versicherungen. Man muss sich darum kümmern, will aber nur wenig Zeit und Arbeit investieren. Tritt dann tatsächlich ein Schaden ein, wird schnell klar, dass sich ein wenig mehr konzeptionelle Energie bei Auswahl, Design und Implementierung durchaus gelohnt hätte. Denn Datensicherungsprojekte erfordern End-to-End-Konzepte, durchgängige, zentrale Monitoring-Ansätze und eine ganzheitliche Betrachtung der gesamten Unternehmensarchitektur.

In diesem Artikel führen weisen wir Sie auf wichtige Probleme hin, die Sie bei Ihrem Backup-Konzept beachten müssen. Die häufigsten Fehler beim Backup haben wir ebenfalls aufgeführt.

Problem 1: Messaging und File-Services sichern

Das Thema Backup und Recovery wirft bei den Verantwortlichen in den Unternehmen viele Fragen auf. Zunächst sorgen sich IT-Verantwortliche natürlich um die Sicherheit ihrer Bestandsapplikationen wie Messaging und File-Services. Die rasanten Wachstumsraten dieser Anwendungen sprengen immer wieder die Kapazitätsgrenzen der Datensicherungsmedien und die definierten Laufzeiten für Sicherung und Restore.

Hohen Erklärungsbedarf gibt es derzeit bei der Sicherung von Daten aus neuen Applikationen wie Collaboration-Plattformen. In Sharepoint-Umgebungen können die Informationsmengen auf mehrere Terabyte anwachsen. Gleichzeitig stellen die Server-Farmen mit untereinander konsistent zu sichernden Einzelsystemen für Datensicherungsvorhaben komplexe Hürden dar.

Weiter sind virtualisierte Infrastrukturen ein aktuelles Thema für Data-Protection-Experten. Egal ob die Plattform VMware vSphere, Hyper-V oder anders heißt, die Frage lautet immer: Wie können Daten in virtualisierten Umgebungen effizient und Recovery-fähig gesichert werden? Ein wichtiges Thema ist die Konsistenz von Applikationen im virtuellen Umfeld. Hier gilt es, die vorhandenen Schnittstellen genau auf ihre Tauglichkeit für die Backup-Instanzen zu prüfen. Vielfach sind bereits punktuelle Lösungen im Einsatz, die das Backup und die Rücksicherung von ein bis drei virtuellen Maschinen bewältigen.

Wer plant, seine Infrastruktur mittelfristig in größerem Rahmen zu virtualisieren, sollte mit leistungsfähigen Enterprise-Backup-Tools operieren. Diese sollten Backup-Services automatisieren, Applikationen konsistent sichern und die Betriebsaufwände über eine einheitliche zentrale Administrationsschnittstelle im Rahmen halten.

Problem 2: Insellösungen funktionieren nur kurzfristig

Die Krux bei der Datensicherung ist die End-to-End-Betrachtung des Sicherungsprozesses: Die gesamte Wegstrecke der Daten von Quellapplikation und -system, über das LAN oder SAN bis hin zum Sicherungsmedium muss geplant werden.

Organisatorisch führt der Sicherungsweg in den Unternehmen über Funktionsbereiche und Abteilungen hinweg. Hier gilt es, an den Schnittstellen der Zuständigkeitsbereiche konzeptionelle Brüche zu vermeiden, damit die definierten Serviceziele für Backup und Recovery in jedem Fall erreicht werden. Fehlt diese ganzheitliche Betrachtung, besteht die Gefahr, dass jede Abteilung Insellösungen zum Schutz der eigenen Applikationen durchsetzt. Ein zentrales, konsistentes Berichtswesen und durchgängige Prozesse werden so unmöglich und sind mit deutlichem Mehraufwand verbunden.

Wie bei vielen anderen IT-Projekten ist die Kommunikationsleistung auch bei Datensicherungsvorhaben von zentraler Bedeutung. Es gilt unterschiedliche Anforderungen und Interessen unter einen effizienten Hut zu bringen. Hilfreich ist das Hinzuziehen des Auditors, der die Sicherung von Prozessen auf Compliance- oder Restore-Fähigkeit hin untersucht und gegebenenfalls veraltete Anforderungen aktualisiert.

Mitunter sollte sich der Projektleiter im Unternehmen nicht scheuen ein paar grundsätzliche Architekturfragen zu stellen: Ist das Ziel eine optimale Applikationsintegration innerhalb einer Insellösung, oder soll ein Betriebskonzept mit durchgängigen, zentralen Monitoring- und Reporting-Funktionen umgesetzt werden? Diese Zielsetzung bestimmt dann erst im zweiten Schritt, welche Technologien optimal sind. Unternehmen, die Daten aus komplexen, gewachsenen Applikations- und Infrastrukturlandschaften sichern wollen, sollten auf externe Beratung nicht verzichten, um Vorteile verschiedener Lösungen am Markt unabhängig bewerten zu lassen.

Problem 3: Das Backup-Medium Tape wird für tot erklärt

Zu den Best Practices eines Beratungs- oder Systemhauses gehört es, die Aussagen der Hersteller kritisch zu hinterfragen und sich vorrangig die individuelle Kundensituation anzusehen. Auch wenn es die Plattenhersteller gerne propagieren: Das Tape ist nicht tot!

Als Ablagemedium in einer Backup-Strategie sind Tape Libraries wirtschaftlich sinnvoll und ermöglichen gegenüber der Plattensicherung eine komplementäre Risikostreuung. Nur etwa ein Prozent der Kunden von Computacenter verzichtet derzeit völlig auf den Einsatz von Tapes. Pauschale Aussagen, dass Festplatten in jedem Fall schneller sind als Tapes, sind ebenfalls mit Vorsicht zu genießen. Wer regelmäßig umfangreiche Datenbanken sichern muss, ist mit Bändern oft schneller und wirtschaftlicher unterwegs. Auf der anderen Seite gehören die Minidateien von File-Servern nicht direkt auf Tapes, da sie zu langsam angeliefert werden.

So interessant die Datenreduktion von Backup-Daten durch Deduplizierung auch ist, für manche Sicherungsvarianten ergibt sie keinen Sinn. Nur bei ausreichend langen Aufbewahrungsfristen oder sehr redundanten Daten lohnt sich Deduplizierung. Ein Deduplizierungsansatz ist für die Datenbereiche eines Unternehmens einzeln zu bewerten. Die beste Lösung ist immer diejenige, die die Anforderung der jeweiligen Infrastruktur optimal erfüllt.

Problem 4: Überflüssige Technologien

Hersteller halten einen Blumenstrauß an Technologien bereit: Das Angebot reicht von der Deduplizierung über Continuous Data Protection (CDP), Snapshot-basierte Sicherungsverfahren und Medien wie Festplatten, Tape- oder Virtuelle Tape Libraries (VTL). Es ist aber zu erwarten, dass die Deduplizierung und seitens der Backup-Software gesteuerte diskbasierte Sicherungen die VTLs über kurz oder lang verdrängen werden. Hochsensible Systeme fordern Online-Recovery, weniger kritische Daten können auch von Tapes mit längeren Antwortzeiten rückgesichert werden. Oft führen auch Betrachtungen der Verhältnismäßigkeit von Aufwand und Relevanz der Informationen zur passenden Backup-Technologie.

Die Datensicherungslösung wird bei mittleren bis großen Unternehmen immer eine Kombination aus Software wie Enterprise-Backup-Tools oder Einzelkomponenten mit Sicherungsgeräten wie Tape- oder virtuellen Tape-Libraries, Backup-to-Disk-Systemen oder Deduplizierungs-Appliances sein. In Summe gilt es zu klären, wo welche Funktionalität angesiedelt wird. In der Praxis hat die Konsolidierung und zentrale Verwaltung mit einem Enterprise-Backup-Tool bewährt.

Interesse bestand in den vergangenen Jahren vor allem an Snapshot-basierten Backups und der Flexibilität von VTLs. Kurz- bis mittelfristig werden Deduplizierungsfunktionen und das Steuern der Snapshots zunehmend in die Backup-Software integriert sein, sodass hierfür keine dedizierten Appliances mehr angeschafft werden müssen.

Problem 5: Backup erfordert intelligente Softwaresteuerung

Die funktionelle Bandbreite der Sicherungssoftware wird vielfältiger. Wurden früher lediglich Daten von A nach B transferiert, wird der Weg der Daten in das Backup zunehmend intelligent gesteuert, man spricht dabei von Orchestrierung.

Das Datensicherungsprogramm versetzt die Applikation in einen konsistenten Zustand, initiiert einen Snapshot im Storage-System, sorgt für dessen Übertragung und kopiert ihn gleichzeitig an einen Ausfallstandort. Dieser Prozess wird im Vorfeld definiert und ist damit auch problemlos zu überwachen. Im Sinne einer zunehmenden Automatisierung der Datensicherung empfiehlt sich ein zentraler Backup-Server, ein sogenannter Denker, der den gesamten Backup-Prozess nach vorgegebenen, wieder verwendbaren Regelsätzen steuert.

Die häufigsten Fehler beim Backup

Aus den häufigsten Fehlern, die bei Backup und Recovery-Projekten immer noch auftreten, lassen sich hilfreiche Strategien für die Zukunft ableiten:

Fazit

Um die konzeptionelle Vorarbeit bei Backup- und Recovery-Projekten kommt angesichts des unkontrollierbaren Datenwachstums und komplexer, virtualisierter Umgebungen kein Unternehmen herum. Bei einer genauen Analyse der eigenen Infrastruktur fallen Fehler bei Betriebsabläufen, ungünstig definierte Anforderungen oder Backup-Systeme mit Archivfunktion auf.

Das bietet die Chance zur nachhaltigen Korrektur und eine effiziente Basis für eine Datenversicherung, die im Schadensfall auch hält, was sie verspricht: schnelle, gegebenenfalls deduplizierte Backups und eine zeitnahe Wiederherstellung mit integrierter Replizierung auf Disaster-Recovery-Standorte. (cvi)

Dieser Artikel basiert auf einem Beitrag unserer Schwesterpublikation Computerwoche.