Große Speichermengen im Griff

Backup-Lösungen für heterogene Umgebungen

02.11.2012 von Mario Werner
Die zu speichernde Datenmenge in deutschen Unternehmen steigt Untersuchungen zufolge jährlich um rund ein Drittel. Gleichzeitig gibt es durch virtuelle Server veränderte Bedingungen für die Datensicherung. Herkömmliche Backup-Verfahren müssen deshalb überdacht werden.

Während die Mehrzahl der Sicherungslösungen in Unternehmen noch auf einen Gigabyte-Bereich ausgelegt ist, umfasst das tatsächliche Datenvolumen von Backups oft längst mehrere Terabyte pro Tag. Die Belastung für Server, Netzwerk und Zielmedien ist daher enorm.

Gleichzeitig virtualisieren immer mehr Unternehmen ihre Server, sodass die klassischen File-basierten Datensicherungsverfahren endgültig an ihre Grenzen stoßen. Bis Ende 2012 wird laut Gartner die Hälfte aller Server-Workloads in Rechenzentren mit x86-Servern auf virtualisierten Systemen laufen. Im Enterprise-Segment beträgt die Wachstumsrate im Jahresvergleich 14 Prozent.

Um diese Belastung in den Griff zu bekommen, setzen bereits über die Hälfte aller Unternehmen mehrere Backup-Lösungen parallel ein. Neben File-basierter Backup-Software, die laut einer im Jahre 2011 durchgeführten Studie von Syncsort und UBM TechWeb bei rund 80 Prozent aller Unternehmen zum Einsatz kommt, sind das anwendungsspezifische Lösungen, Snapshot-Lösungen, spezifische Backup-Software für virtualisierte Umgebungen, Disk-Array-Datenreplikation und viele mehr. Dabei würden die meisten Unternehmen eine einzige Lösung bevorzugen. Dies zeigt, dass bereits die Anforderungen in physischen Umgebungen hoch sind und mit zunehmenden virtuellen und heterogenen Systemlandschaften weiterhin ansteigen. Wen wundert es da, dass sich immer mehr Firmen die Suche nach einer effizienteren Sicherungslösung auf die Fahnen geschrieben haben.

Backup-Lösungen: Laut Studie von Syncsort und UBM TechWeb verwenden Unternehmen diverse Verfahren zur Datensicherung. Viele nutzen davon mehrere Lösungen. Am häufigsten kommt noch dateibasierte Backup-Software zum Einsatz.
Foto: Syncsort

Neue Anforderungen durch virtuelle Umgebungen

Die Virtualisierung der Serverlandschaft bringt wesentliche Veränderungen hinsichtlich der Datensicherung mit sich. Wenn ein physikalischer Server, der vorher zu lediglich 10 oder 15 Prozent ausgelastet war, nun mit bis zu 90 Prozent beansprucht wird, leiden die Festplattenressourcen, die CPU-Zeit des Hosts sowie die Netzwerkbandbreite. Folglich stehen auch weniger Systemressourcen für das Backup zur Verfügung.

Der erste Schritt heißt somit: Ressourcen schonen. Das beginnt bereits vor der Speicherung, indem die zu speichernde Datenmenge reduziert wird. Einer der grundlegenden Ansätze hierfür ist etwa die Datenkompression, bei der häufig vorkommende Zeichensequenzen innerhalb einzelner Dateien durch möglichst kurze Repräsentanzen ersetzt werden. Dadurch können bis zu 50 Prozent des Speicherplatzes zurückgewonnen werden.

Noch effektiver ist die Nutzung von Techniken der Deduplizierung. Anstelle von sich wiederholenden Abschnitten werden dabei Platzhalter eingesetzt. Vor allem die blockbasierte Methode mit ihrer sehr feinen Granularität ist äußerst effizient und ermöglicht Einsparungen von weit über der Hälfte des bisher notwendigen Speicherplatzes.

Effizienter speichern ist nur der erste Schritt

Bei einer IDC-Umfrage unter IT-Entscheidern aus dem Jahre 2011 gab ein Drittel der Befragten an, mit einer neuen Speicherlösung für ihre virtualisierte IT-Umgebung auch gleichzeitig eine passende integrierte Backup- und Disaster Recovery-Lösung erhalten zu wollen.

Das Angebot ist breit und erstreckt sich von traditionellen über speichersystembasierte Lösungen für physikalische und virtuelle Systeme bis zu für ausschließlich virtuelle Umgebungen ausgelegten Optionen. Sie alle sorgen mittels Datenreduktionstechniken wie der Deduplizierung auf Block-Level für kleinere Datenmengen und kürzere Backup-Fenster. Darüber hinaus gibt es Tools für Continuous Data Protection (CDP), die alle Daten kontinuierlich erfassen und Unternehmen so unabhängig von Backup-Fenstern machen. Das vielfältige Angebot macht es für viele Unternehmen nicht gerade einfach, eine für sie passende Lösung zu finden. Werden jedoch bestimmte Vorüberlegungen und Auswahlkriterien in Betracht gezogen, lässt sich schnell Licht ins Dunkel bringen.

Integration auf breiter Ebene

Das oberste Gebot bei der Planung moderner Datensicherungssysteme ist die einfache Einbindung in die bereits bestehende Systemlandschaft. Normalerweise erfolgen Backupsfestplattenbasiert (disk-to-disk), aber die Sicherung auf Tape wird oftmals noch als Primär- oder Zweitspeichermedium verwendet.

Eine zukunftssichere Lösung sollte daher möglichst mit allen verwendeten und künftig denkbaren Medien kompatibel sein und die Integration von Tape unterstützen, denn gerade die kostengünstigen Bänder sind hinsichtlich der Langzeitarchivierung von Daten weiterhin eine gute Alternative zur Festplatte. Neben der Einbindung in die existierende Hardware sollten Datenschutzlösungen darüber hinaus fähig sein, jede Art von System und Applikation zu erkennen, da vor allem geschäftskritische Anwendungen wie CRM oder ERP verstärkt Einzug in die virtualisierte Welt halten. Dabei ist es wichtig, dass alle Daten einer Anwendung inklusive ihrer Struktur und ihres Leistungsverhaltens identifiziert und integriert werden können. Ist diese "Application-Awareness" nicht gegeben, kann im Ernstfall eine Anwendung nicht mehr in vollem Umfang wiederhergestellt werden.

Snapshot-basierte Techniken für virtuelle Maschinen

Ein weiterer wichtiger Punkt bei der Entscheidung für eine moderne Backup- und Disaster-Recovery-Lösung ist die Wiederherstellung von Daten in virtuellen IT-Landschaften. Dateien in physischen Umgebungen wiederherzustellen ist meist kein Problem. Eine vollständige virtuelle Maschine wiederherzustellen indes ist komplex und zeitaufwendig und schlägt nicht selten fehl.

Noch spannender wird das Thema, wenn es darum geht, physikalische Maschinen im Bedarfsfall schnell und einfach als virtuelle Maschine wiederherzustellen. Effektiv sind daher Lösungen, die auf plattenbasierte Snapshots setzen. Ein Snapshot erstellt ein Image der virtuellen Maschine zum aktuellen Zeitpunkt in einem systemeigenen Format. Die Daten werden katalogisiert und können so leicht wiedergefunden werden.

Snapshot-basierte Verfahren sind laut der eingangs erwähnten Studie von Syncsort und UBM TechWeb zurzeit noch schwach verbreitet. Das ist vor allem darauf zurückzuführen, dass der Snapshot meist auf dem primären Speicher liegt, worunter Geschwindigkeit und Performance des Systems leiden. Ideal sind somit Backup-Lösungen, die Snapshots auf den sekundären Speicher verlagern und den Primärspeicher entlasten.

Granulare Datenwiederherstellung für mehr Flexibilität

Muss nach einem Datenverlust nicht eine komplette virtuelle Maschine neu aufgesetzt werden, sondern geht es lediglich um das Auffinden und Wiederherstellen einzelner Dateien, sollte die granulare Datensicherung (Granular Recovery Technology, GRT) zum Einsatz kommen. Damit lassen sich aus einem einzigen Backup granulare Elemente in Exchange-, SQL- oder Active-Directory-Anwendungen extrahieren. Das System erhält quasi ein Bewusstsein über die einzelnen Elemente eines Backups. Darüber hinaus erfasst es diese in einem Dateikatalog und vermittelt so dem Anwender jederzeit Kenntnis der genauen Inhalte. Eine moderne Datensicherungslösung sollte daher immer plattenübergreifend unterschiedliche Wiederherstellungsoptionen für die physikalische und die virtualisierte Welt besitzen.

Mit oder ohne Agent ist nicht die Frage

Viele derzeit am Markt verfügbare Lösungen operieren über Agenten, die in den Zielsystemen Datenkopien erzeugen und an den zentralen Backup-Server senden. In virtuellen Umgebungen können die einzelnen Systeme zwar ebenfalls durch Agenten gesichert werden, nur geht es auch wesentlich einfacher. Beispielsweise durch agentenloses Backup - ein Verfahren, das hohe Verfügbarkeit bei geringem Aufwand verspricht. Zudem ist es oftmals weniger kostspielig, da bei einer agentenbasierten Lösung für jede virtuelle Maschine ein Agent und damit auch eine Datensicherungslizenz notwendig sind.

Die Sicherung der virtuellen Maschinen erfolgt beim agentenlosen Backup durch den Host. Es wird einfach ein Snapshot / Image der gesamten virtuellen Maschine erstellt und abgelegt. So kann bei Bedarf jede virtuelle Maschine schnell wieder nachgebildet werden. Ein Snapshot kann jedoch immer nur ein Abbild der virtuellen Maschine zu einem bestimmten Zeitpunkt liefern. Mittels dieser Technik allein gibt es daher keine Garantie für eine erfolgreiche und konsistente Wiederherstellung von Anwendungen. Um dem vorzubeugen, kommen separate Skripte zum Einsatz. Diese können laufende Anwendungen in einen konsistenten Zustand bringen. Gleichzeitig steigern sie aber die Komplexität und Fehleranfälligkeit des Backups. Anders formuliert, führt beim Ein beziehen geschäftskritischer Anwendungen die Vereinfachung des Backups auf Basis eines Snapshots einer kompletten virtuellen Maschine zu einer höheren Komplexität im Falle einer Wiederherstellung.

Ob nun mit oder ohne Agent, die Frage für die Zukunft ist nicht, wie, sondern eher, was wiederhergestellt werden soll. Geht es beispielsweise um eine Anwendung oder eine Datei, bietet sich ein Verfahren mit einem Backup-Agenten an; bei der Wiederherstellung eines kompletten virtuellen Servers spielt das Verfahren ohne Backup-Agenten seine Stärken aus. Ideal sind somit Lösungen, die beide Optionen bieten, quasi als "duales System".

Lizenzierungsmodelle: Vergleich lohnt

Speziell bei der Virtualisierung kann sich das Einholen mehrerer Angebote sehr stark auf die Gesamtkosten auswirken, da selbst bei ein und demselben Anbieter unterschiedliche Lizenzierungsvarianten mit starken Preisunterschieden möglich sind.

Entscheidend für die Überlegung ist der künftige Bedarf, nicht die aktuelle Situation. Unternehmen sollten daher vorher genau überlegen, wie die IT-Landschaft in den kommenden zwei bis drei Jahren aussehen soll. Danach kann das günstigste Angebotsmodell herausgesucht und entweder pro Server, pro virtuelle Maschine oder nach Kapazität abgerechnet werden. Vor allem Letzteres kann für viele Unternehmen durchaus lohnenswert sein, da gerade im Rahmen der Servervirtualisierung schnell ein paar neue Maschinen angelegt sind, ohne dass sich die Datenmenge wesentlich ändert.

Die größte Rolle bei der Auswahl spielt daher die Flexibilität der Lösung. Einfach implementierbar in die bestehende IT-Infrastruktur, kompatibel mit den vorhandenen Speicherlösungen und skalierbar sollte sie sein. Während des Speicherprozesses sollten Datenreduktionsverfahren für ein Minimum an zu speichernder Datenmenge und unterschiedliche Erfassungsoptionen wie Snapshots oder granulare Datensicherungsverfahren für ein Maximum an Effizienz bei der Datenwiederherstellung sorgen.

Schließlich sollte die neue Lösung sowohl agentenbasiertes als auch agentenloses Backup unterstützen. So sind Unternehmen nicht gezwungen, Schwerpunkte hinsichtlich der Sicherung von Anwendungen oder Dateien zu setzen, da die jeweils optimale Variante immer zur Verfügung steht. (cvi)