Effizienz durch Storage-Virtualisierung

15.07.2005 von WOLFGANG STEHR
Mehr Effizienz und niedrigere Kosten sind die Wunschvorstellung bei Storage-Umgebungen. „Virtual Storage“ gilt als Schlagwort für eine einfache Lösung. Doch bei der Organisation der Speicherkapazitäten gilt es, einiges zu beachten.

Das anhaltend hohe Datenwachstum und knappe Budgets für IT-Investitionen führen zu dynamisch gewachsenen Storage-Strukturen inden Unternehmen. Festplatten, optische Medien und Tapes sind vielfach unabhängig voneinander im Einsatz. Die Speicher- und Backup-Aufgaben wurden in der Vergangenheit oft abteilungsweit gelöst, ohne dass eine einheitliche Strategie vom Unternehmen vorgegeben war.

Und die Datenmengen steigen in den nächsten Jahren weiter. Frühzeitige Überlegungen sind somit sinnvoll, um die vorhandenen Speicherkapazitäten zusammenzuführen und effizient zu nutzen. Viele Unternehmen im IT-Umfeld stehen angesichts eines allgemein üblichen Datenwachstums von 50 bis 100 Prozent pro Jahr vor der Herausforderung, dass ihre Kapazitäten bei optischen Speichersystemen und Festplatten in Kürze erschöpft sind.

Die Storage-Virtualisierung ist hierbei ein geeigneter Ansatz, um die Speicherlandschaft einerseits zu konsolidieren und sie andererseits zukunftsfähig zu machen. Basis für eine wirtschaftliche und sinnvolle Aufteilung der Speicherkapazitäten ist aber in jedem Fall eine kritische und gründliche Eigenanalyse, ein organisatorisches Konzept sowie detaillierte Kenntnisse der technischen Möglichkeiten.

Storage-Kapazitäten werden zusammengefasst

Nun gibt es für Storage-Virtualisierung keine allgemeingültige Checkliste, nach der ein IT-Leiter vorgehen könnte, um die Storage-Strukturen zusammenzufassen und die Ablage von Daten zu vereinheitlichen. Storage-Virtualisierung bedeutet, dass die Nutzung von Rechen- und Speicherkapazität von der tatsächlichen Hardware entkoppelt wird. Dies bietet dem Anwender eine logische Sicht auf die physikalische Schicht.

Ziel eines solchen Projekts ist es, durch die Virtualisierung die vorhandenen sowie neu geschaffenen Ressourcen besser auszunutzen. Jede Applikation muss zeitgerecht auf die benötigte Infrastruktur zugreifen können, während sich die Kosten im Rahmen halten. Im Projekt müssen darüber hinaus gesetzliche Auflagen hinsichtlich der Aufbewahrung von Daten und Dokumenten berücksichtigt werden.

Man fasst hierzu die verschiedenen eingesetzten Hardware-Technologien zu einem so genannten Speicherpool zusammen. In diesem bestehen dann Disk Arrays, Optical-Storage-Systeme und Tape Libraries gleichberechtigt nebeneinander. Regeln, die mit Storage-Management-Tools definiert werden, unterstützen die weit gehend automatisierte Verwaltung der gespeicherten Daten. Über die vorhandenen Speichereinheiten hinweg lassen sich die Daten dann problemlos kategorisieren, kopieren und auch verschieben.

Drei Virtualisierungsansätze

Prinzipiell gibt es drei verschiedene Ansätze für die Virtualisierung einer Storage-Umgebung. Diese unterscheiden sich dadurch, auf welcher Ebene die Virtualisierungsinstanz angesiedelt ist. Es gibt nach heutiger Erkenntnis folgende Ansätze:

Jede Variante weist Vor- und Nachteile auf. Die Planung von virtuellem Storage-Management basiert auf einer Durchleuchtung jeder dieser Ebenen im Unternehmen. Erst nach einer genauen Analyse und einer klaren Zielvorstellung lässt sich die Speicherauslastung optimieren und die Administration vereinfachen.

Virtualisierung auf Server-Ebene

Bei der Host-basierten Virtualisierung befindet sich die gesamte Software und Last auf den Servern. Dies bietet folgende Vorteile: Die Nähe zur Applikation sowie auch den schnellen Speicherzugriff. Diese Virtualisierungsform ist bereits verbreitet und hat sich in der Praxis als „performant“ erwiesen.

Ein Nachteil ist jedoch, dass ein Unternehmen schnell von einem Lösungshersteller abhängig wird. Weiterhin ist keine einheitliche Darstellung der Speicherkapazitäten gegeben. Darüber hinaus ist zurzeit das Lizenzmodell einiger Software-Hersteller nur schwer auf eine Host-basierte Virtualisierung anwendbar und kann mit erheblichen Kosten verbunden sein.

Virtualisierung auf SAN-Ebene

Siedelt man die Virtualisierungsinstanz auf der SAN-Ebene an, innerhalb eines Netzwerks also zwischen Host und Speicher, lässt sich die Virtualisierung schnell implementieren. Sie ist darüber hinaus einfach in der Verwaltung und bietet Zugriff auf mehrere Speicher und Server.

Hervorzuheben ist auch die Unabhängigkeit von Treibern und Software, durch die die Funktionen ausnahmslos auf der Virtualisierungsplattform ausgeführt werden. Daher benötigt der Server keine speziellen Software-Clients und Treiber.

Eine Schwierigkeit dieses Ansatzes könnte sein, dass der Virtualisierungsmechanismus als „Flaschenhals“ wirkt, was wiederum hohe Anforderungen an die Leistungsfähigkeit dieser Einheit stellt. Auch hinsichtlich der Skalierbarkeit, Prozessorleistung, Integration und Fehlersuche kann sich die SAN-basierte Virtualisierung bei der Analyse als ungeeignete Lösung herauskristallisieren.

Virtualisierung auf Speicherebene

Die speicherbasierte Virtualisierung bietet die Nähe zu den Daten sowie den Zugriff auf mehrere Server. Die Architektur des Netzwerks muss bei der Implementierung verändert werden, um den Zugriff auf verschiedene Speicher zu ermöglichen.

Weiterhin kann auch hier das Problem auftreten, dass man sich zu sehr an einen Hersteller bindet.

Zusätzliche Option: Neue Storage-Infrastruktur

Neben den genannten Virtualisierungsformen gibt es noch eine vierte Option. Integriert man die Virtualisierungsinstanz direkt im Switch oder Router, lassen sich alle gängigen Server- und Speichersysteme anschließen.

Befürworter dieses Ansatzes betonen besonders die Zukunfts- und Investitionssicherheit einer solchen Lösung, die bereits von mehreren Herstellern mit marktreifen Produkten unterstützt wird. Dieser Ansatz setzt voraus, dass die bisherige Storage-Infrastruktur komplett ersetzt wird. Die hohen Kosten schrecken bei den knappen IT-Budgets allerdings ab.

Mischformen als Lösung

„Reine“ Virtualisierungsformen werden auf Grund der zahlreichen Vor- und Nachteile der aufgezeigten Ansätze in der Praxis kaum auftreten. Je nach Ausgangslage im Unternehmen können die technischen Ansätze aber derart kombiniert werden, dass sie auch langfristig den Anforderungen Stand halten.

Kombiniert man etwa den Server-basierten mit dem speicherbasierten Ansatz, könnte dies eine mögliche effiziente Lösung für Unternehmen mit komplexen Storage-Strukturen sein. Der Storage-Domänen-Server wird hierfür in ein SAN integriert. Mit einer Storage-Management-Software verwaltet und konfiguriert der Administrator die im SAN befindlichen Storage-Ressourcen. Zum Beispiel werden Disk Arrays und optische Jukeboxen zu logischen Größen zusammengefasst.

Eine Virtualisierung nahe an der Speicherebene hat somit den Vorteil, dass diese am nächsten an den Daten und besonders effizient ist. Durch den Einsatz des Storage-Domänen-Servers können mehrere unabhängige Applikations-Server mit unterschiedlichen Betriebssystemen versorgt werden. Lediglich ein Mountpoint ist für den Datenstrom und den Virtualisierungsmechanismus notwendig.

Die Leistungsfähigkeit kann durch entsprechende Caching-Techniken der Storage-Management-Software weiter erhöht werden. Die klare Trennung zwischen der logischen und physikalischen Schicht ermöglicht es, während der Produktion auch eine Datenmigration auf eine andere Plattform durchzuführen. Der Anwender merkt davon nichts, für ihn bleibt ein File unverändert in der Verzeichnisstruktur.

Priorität Datensicherheit

Bei der Entwicklung eines Storage-Virtualisierungskonzepts darf eines nicht übersehen werden: die Datensicherheit. Oberstes Ziel einer Storage-Umgebung ist es, den Anwendern Daten zu jeder Zeit zur Verfügung zu stellen. Daher müssen im Storage-Konzept unter anderem Katastrophenfälle, wie zum Beispiel die Überflutung eines Rechenzentrums, in Betracht gezogen werden.

Auch der Ausfall einzelner Systemkomponenten ist einzubeziehen. Lässt sich die Fehlerquelle nicht sofort lokalisieren, geht dies ebenso zu Lasten der Datenverfügbarkeit und der Überlebensfähigkeit eines Unternehmens.

Ein zuverlässiger Schutz sowie die schnelle Wiederherstellung von unternehmenskritischen Daten müssen oberste Priorität haben. Existieren bereits unterschiedliche Unternehmensanforderungen, sind diese im Gesamtkonzept zu harmonisieren.

Weiterhin zu berücksichtigen sind bei der Konzeption neben den gesetzlichen Anforderungen und Vorschriften die bereits vorhandenen Applikationen wie zum Beispiel Workflow- und Business-Process-Management-Systeme. Einige hochwertige Systeme verfügen bereits über ein Records Management und unterstützen somit den gesamten Lebenszyklus von elektronischen und physischen Datensätzen.

Aber auch die Frage der Datenmigration muss beantwortet werden: Wie sollen die eingesetzten Technologien zukünftig aussehen, welcher Datenbestand ist wann auf modernere Technologien zu migrieren? Wichtig ist auch die Fragestellung, wo in der Vergangenheit bei der Auswahl von Hard- und Software Kostentreiber entstanden sind. Diese sollten künftig bei der Virtualisierung wegfallen.

Fazit

Storage-Virtualisierung erfordert individuelle Analysen. Die Fakten, aber auch die Wünsche von Anwendern und Verantwortlichen bilden die Basis für eine umfassende Storage-Konzeption. Ein solches Projekt lässt sich daher nicht im Hauruck-Verfahren von heute auf morgen umsetzen.

Eine durchdachte Storage-Virtualisierung bietet aber bei detaillierter und gründlicher Betrachtung aller Faktoren und Optionen enorme Chancen, die Storage-Umgebung zukunftssicher zu gestalten, Investitionen zu schützen und Kosten zu reduzieren.

Autoreninformation: Wolfgang Stehr ist Leiter Service & Support bei der Tropper Data Service AG in Neuenhagen bei Berlin und verantwortet hier die Entwicklung des Geschäftsfeldes Storage.