Mehr Freiheit für Unternehmensdaten

Data Gravity mit Multi-Cloud-Infrastruktur überwinden

Wer Daten auf eine neue Plattform migriert, hat meist mit der sogenannten "Data Gravity" zu kämpfen. Gewisse Daten "klammern" sich an die alte Infrastruktur. Ein Weg aus diesem Dilemma ist eine Multi-Cloud-Infrastruktur.

Die Cloud gibt mittelständischen Unternehmen mit überschaubarer IT-Infrastruktur eine effiziente Möglichkeit, das kontinuierliche Datenwachstum sicher zu beherrschen. Dies ist vor allem wichtig, weil Daten heute zu einem zentralen Produktionsfaktor geworden sind. Gleichzeitig nimmt die Menge der Informationen, die in Rechenzentren verarbeitet werden, ständig zu. IT-Verantwortliche sollten daher Cloud-Technologien evaluieren, um sicher und wirtschaftlich die kommenden Anforderungen beherrschen zu können. Auf dem Weg zur Cloud-Integration bremst jedoch eine Kraft die Modernisierungsvorhaben aus: die Data Gravity.

Die Daten-Schwerkraft

Wer als IT-Experte schon einmal vor der Aufgabe stand, Daten auf eine neue Plattform zu migrieren, wird vor der einen oder anderen Schwierigkeit gestanden haben. Die auftretenden Herausforderungen sind häufig auf den Effekt der Data Gravity zurückzuführen. Auch Bits und Bytes unterliegen den Gesetzen der Schwerkraft - im übertragenen Sinne. Sie haben nämlich die Tendenz, sich an eine bestehende Infrastruktur zu klammern. Je nach Eigenschaft und Sicherheitsklasse besitzen die Unternehmensdaten also eine gewisse Trägheit, die es erschwert, Daten zu migrieren oder neue Ressourcen zu integrieren.

Das Phänomen der Data Gravity ist vielen CIOs bekannt, wenn auch nicht immer unter dieser Bezeichnung. Es handelt sich hierbei keineswegs um ein theoretisches Szenario, sondern um eine reale Herausforderung, der sich beinahe jeder IT-Verantwortliche stellen muss, der versucht, die eigene IT-Infrastruktur zu optimieren. Wie aber entsteht Data Gravity überhaupt und warum muss sich die IT damit beschäftigen?

Es gibt verschiedene Faktoren, die diese Schwerkraft erzeugen. Hierzu zählt beispielsweise die Größe der Daten. Wer eine Storage-Infrastruktur im Petabyte-Bereich betreibt, wird diese aufgrund der großen Datenmenge nur sehr schwer auf eine neue Plattform migrieren können. Verlangt eine Anwendung nach einer leistungsfähigen Transaktions-Plattform und schnellen Zugriffszeiten auf die Storage-Systeme, ist es auch hier kaum möglich, Daten auf ein Zielsystem zu verlagern, das nicht die gleiche Performance bietet. Schließlich kann es auch rechtliche Rahmenbedingungen geben, die es erforderlich machen, dass kundenbezogene Informationen nur auf speziell gesicherten Servern verarbeitet werden dürfen.

Diese Beispiele zeigen, dass sich die Data Gravity in beinahe jedem Projekt versteckt. Für IT-Experten wird es dadurch erschwert, IT-Infrastrukturen zu modernisieren und beispielsweise neue Ressourcen aus der Public Cloud zu integrieren.

Data Fabric ist das von NetApp entwickelte Konzept, mit dem Unternehmen eine Multi-Cloud-Infrastruktur realisieren.
Data Fabric ist das von NetApp entwickelte Konzept, mit dem Unternehmen eine Multi-Cloud-Infrastruktur realisieren.
Foto: NetApp

Cloud ist keine Sackgasse

Wer seine Daten einmal in die Public Cloud übertragen hat, wird diese Daten nur schwer zurückholen können. Zu hoch war der Aufwand der initialen Übertragung in die Cloud, die vielleicht sogar noch mit einer Datenkonvertierung einherging. Das Prinzip der Data Gravity wirkt also auch in der Cloud.

Es gibt jedoch Methoden, um auch Cloud-Ressourcen unterschiedlicher Anbieter flexibel zu nutzen und damit die Datenschwerkraft zu umgehen. Grundlage hierfür sind Storage-Betriebssysteme, die Funktionen für Integration, Verwaltung oder Replizierung von Datenbeständen über Storage-Infrastrukturen hinweg ermöglichen.