Datensicherung optimieren

Deduplizierung - Mehr sichern, weniger speichern

Problem des DeDup-Overlaps

Bei der Frage, wo DDD eigentlich stattfindet, unterscheidet man Inline versus Post-Processing. Beim Post-Processing oder „out-of-band“ landen alle Daten (auch die redundanten Daten) vorläufig auf dem Speichermedium und müssen nach dem Backup in einem dedizierten nachgelagerten DeDup-Prozess von einer dedizierten DeDup-Engine (bestehend aus FC-Ports und Servern) verarbeitet werden.

Der DeDup-Prozess steht dabei im Mitbewerb zu anderen Prozessen wie zum Beispiel Restore oder Auslagerung auf Tape. Hierbei kann es zu einem DeDup-Overlap kommen, wenn das nächste Backup anläuft bevor der DeDup-Prozess des aktuellen Backups noch nicht abgeschlossen ist. Die Folge: Das neue Backup sprengt die Speicherkapazität. Ein scheinbar schnelles Backup hin zum Plattenspeicher wird mit der Möglichkeit eines DeDup-Overlap zum untragbaren Risiko im RZ-Betrieb. Ebenso verlangt „post processing“ viel Hardware.

Aus diesem Grund bietet sich ein Inline- oder „in-band“-Verfahren an, weil in Echtzeit der DeDup-Prozess mit dem Backup verläuft. Wenn das Backup abgeschlossen ist, ist auch gleichzeitig der DeDup-Prozess beendet. Nachgelagerte Prozesse wie Backup-to-Tape, Vaulting oder off-site-Replikationen können gescheduled ablaufen.

Inline: IBM verwendet bei seinem DeDup-Gateway ProtecTIER das Inline-Verfahren bei der Datendeduplizierung. (Quelle: IBM)
Inline: IBM verwendet bei seinem DeDup-Gateway ProtecTIER das Inline-Verfahren bei der Datendeduplizierung. (Quelle: IBM)

Kunden erwarten, dass diese beschriebenen DeDup-Verfahren Ihre Anforderungen erfüllen. In einer Nutzerumfrage, die zwischen März und Mai 2007 durchgeführt wurde, hat die 451-GROUP folgende Top-Anforderungen herausgearbeitet:

  • Hoher kumulativer Durchsatz (gesamte Zeit von Backup- und DeDup-Prozess)

  • Hundertprozentige Datenintegrität

  • Hervorragende Skalierbarkeit und Kapazität

  • Hersteller-Erfahrung und -Reputation