Datenverlust vermeiden: Recovery-Strategie ist entscheidend

29.06.2006 von Karl Fröhlich
IT-Verantwortliche legen beim Aufbau einer Datensicherungslösung großes Augenmerk auf die Hardware. Die nötige Software bleibt dabei oft unterrepräsentiert, wie auch ein ausgefeilter Recovery-Plan.

Nur wenige Firmen testen, ob sich die gesicherten Daten wunschgemäß wiederherstellen lassen. „Es liegt auf der Hand, dass Datenverlust heutzutage das Aus eines jeden Unternehmens bedeuten kann, unabhängig von der Größe des Unternehmens oder der Art des Geschäftsfeldes“, erklärt Georg Schneider, Pre-Sales Manager DACH bei Yosemite.

„Das Erfüllen von gesetzlichen Auflagen muss im eigenen Interesse liegen und darf nicht nur als notwendiges Übel angesehen werden.“, so Georg Schneider. Die saubere Definition des Wiederherstellungsprozesses ist der zentrale Punkt im Backup/Recovery-Plan eines Unternehmens.

Datenverlust vermeiden

„Ausfälle von Anwendungen, Datenbanken oder Teilen der Produktivumgebung lassen sich trotz immer zuverlässigerer Hard- und Software-Lösungen nicht vollständig ausschließen“, warnt Rocco Frömberg, Produktmanager bei TIM. „Aber ein Datenverlust darf niemals dauerhaft sein, sondern muss so kurz wie möglich bleiben.“ Bis zu diesem Punkt gleichen sich die Bedürfnisse kleinerer und größerer Firmen weitgehend – Unterschiede treten bei den finanziellen Möglichkeiten und den fachlichen Ressourcen zu Tage, diese Anforderungen zu erfüllen.

Für KMUs stehen nach Angaben des Storage-Distributors TIM vor allem drei Kriterien im Vordergrund, die vor einer Neuinstallation Berücksichtigung finden sollten:

Anwenderfreundlichkeit: Optimal ist eine Backup-Software, die ein hohes Sicherheitsniveau erreicht ohne zu komplex zu werden. Dies beginnt mit einfachen Dingen wie einer übersichtlichen Benutzeroberfläche und setzt sich fort über eine möglichst von Assistenten gesteuerte, skriptfreie Einrichtung von Backup-Jobs.

Sicherheit: Die Datensicherung sollte weitgehend autonom und regelmäßig über alle Server, Arbeitsstationen und mobile Geräte erfolgen und fehlerfrei abgeschlossen werden. Die gewählte Backup-Software sollte mit einer Vielzahl verschiedener Hard- und Software-Produkte unterschiedlicher Hersteller problemlos funktionieren.

Modularität: Den Vorzug sollten Lösungen erhalten, die mit einem komplexen Funktionsumfang aufwarten. Dieser sollte herstellerseitig modular angeboten werden. Das heißt, Kunden sollten immer die Möglichkeit haben, Funktionen nach dem individuellen Bedarf zu kaufen.

Ziele der Sicherungsstrategie klar definieren

„Auf dem Weg zur passenden Sicherungsstrategie müssen IT-Verantwortliche - unabhängig von der Unternehmensgröße – einige grundsätzliche Überlegungen anstellen und sich darüber Klarheit verschaffen, welche Ziele es zu erreichen gilt“, sagt Dirk Waltje, Business Manager ILM and Backup Solutions bei Hewlett-Packard. Konkret sind folgende Fragen zu klären:

„Die Antworten auf diese Fragen bestimmen die Backup-Strategie und damit die Wahl der geeigneten Lösungen für die Datensicherung“, meint Waltje. „Ein wichtiges Anschaffungskriterium ist gerade für mittelständische Unternehmen das Preis/Leistungsverhältnis.“

Daher seien speziell bandbasierte Sicherungen in kleineren Firmen weit verbreitet. Generell sollten die Verantwortlichen jedoch auch weitere Aspekte wie zum Beispiel die Kosten für das Speichermanagement berücksichtigen. Unter diesem Gesichtspunkt sind Lösungen vorteilhaft, die Backup-Systeme zentralisieren und dabei die Datensicherung verschiedener Standorte mit einbeziehen. Gleichzeitig sollte bei der Planung einer Backup-Lösung auf die Nutzung skalierbarer Produkte geachtet werden. Diese wachsen nicht nur mit den Anforderungen des Unternehmens, sondern bieten auch entsprechenden Investitionsschutz.

Software muss Medien- und Restore-Handling vereinfachen

Das Problem in kleineren Firmen: „Gerade KMUs haben oft keinen IT-Administrator und auch niemanden, der über gehobenes IT-Fachwissen verfügt“, konstatiert Roger Güldner, Marketingdirektor bei Archiware. Daher gelte es Produkte zu finden, die möglichst einfach und intuitiv zu bedienen sind. Dies beziehe sich aber nicht nur auf die Backup-Routine, sondern vor allem auf den Umgang mit Medien und Restore.

„Insbesondere betrifft dies das Medien-Management, das die Backup-Zyklen inklusive Freigabe und Recyceln der Speichermedien und das Klonen automatisch verwalten sollte“, meint Güldner. „Ein weiteres Anschaffungskriterium ist die Einfügung der Backup-Software in die vorhandene IT-Infrastruktur.“ Verfügt das Unternehmen über eine heterogene Systemlandschaft, ist bei der Anschaffung darauf zu achten, dass die Software auch alle Plattformen, möglicherweise auch Fileserver, bedienen kann. Optimal wäre hier eine wirkliche Plattformunabhängigkeit, die den uneingeschränkten Austausch der Daten auch über die Systemgrenzen hinweg gewährleistet.

Die häufigsten Fehler im Datensicherungsplan

In einem Punkt ist sich die Software-Industrie einig: Unternehmen rücken die Auswahl der Backup-Hardware viel zu sehr in den Vordergrund. „Wenn allerdings eine 300 GByte große Datenbank wiederhergestellt werden muss, sind die Geschwindigkeitsunterschiede zwischen klassischen Bandlaufwerken, Disk-Backup und Virtual-Tape-Librarys meist im Bereich von gerade einmal zehn bis 20 Prozent“, erläutert Reinhard Zimmer, Vertriebsleiter Datensicherung bei Syncsort. „Diesen Unterschied haben die meisten Unternehmen aber bereits in weniger als einem Jahr wieder durch Datenwachstum aufgezehrt.“

Eine der am häufigsten genannten Untugenden ist die fehlende Nagelprobe. „Meist stellt sich erst bei Datenverlust heraus, dass Datensicherungen nicht oder nur teilweise vorhanden sind“, kritisiert Peter Borowski, Verkaufsleiter bei GRUPPEMEDIA. „Die Einrichtung und Parametrierung der eingesetzten Produkte wird oft nicht korrekt durchgeführt.“ Eine regelmäßige Überprüfung der Backups ist daher unumgänglich. „Es darf nicht sein, dass ein Mediendefekt erst im Schadensfall festgestellt wird oder das Medium überraschenderweise gar keine Daten enthält“, fordert Archiware-Manager Güldner.

Datensicherung ist keine Blackbox

„Ein weiteres großes Problem besteht häufig in dem Versäumnis, die Backup-Architektur und -Prozesse der sich ständig ändernden IT-Infrastruktur anzupassen“, sagt Frank Bunn, Senior Solutions Marketing Manager EMEA bei Symantec. „Eine Datensicherung ist keine Blackbox, um die man sich nach der Implementierung nicht mehr kümmern muss.“

Es sei wichtig, sie in regelmäßigen Abständen auf ihre Wirksamkeit hin zu überprüfen. Ansonsten wird eine anfangs optimal auf die IT-Infrastruktur abgestimmte Backup-Architektur mit der Zeit nicht mehr ihren Anforderungen bezüglich der Vorgaben für maximalen Datenverlust und Wiederanlaufzeit genügen. (mje)

Dieser Artikel basiert auf einem Beitrag von speicherguide.de.