Kosten sparen und mehr Effizienz

Storage-Optimierung durch Virtualisierung und Cloud

08.01.2010 von KRIEMHILDE KLIPPSTÄTTER
Der Bedarf an Storage steigt – die Budgets sinken. IT-Verantwortlichen bleibt meist nur der Weg, ihre Speicher-Infrastruktur zu optimieren und auf Effizienz zu trimmen. Neben der Virtualisierung kann Cloud Storage eine sinnvolle Alternative sein.

Die Storage-Virtualisierung steht seit Jahren auf der Agenda vieler IT-Verantwortlicher. Doch so einfach wie die allerorts eingesetzte Server-Virutalisierung ist es bei den Speichersystemen nicht. Bei der Server-Virtualisierung ist das Ziel einfach: Viele einzelne physikalische Server werden in virtuelle Maschinen auf einem Server migriert. Bei der Storage-Virtualisierung ist es jedoch anders, wie auch Analyst Josh Krischer von Josh Krischer & Associates erläutert: "Es gibt eine Fülle verschiedener Ansätze zur Storage-Virtualisierung: RAID-Systeme, Volume Management, blockbasierende SAN- oder File-basierende NAS-Virtualisierung, Virtual Tape, Port oder SAN."

Durch die vielfältigen Möglichkeiten bei der Storage-Virtualisierung wird die Thematik schnell komplex. Viele Firmen scheuen deshalb einen schnellen konsequenten Weg wie bei der Server-Virtualisierung. Doch um die Speicherlandschaft effizienter und somit kostensparend zu gestalten, führt kein Weg vorbei an der Storage-Virtualisierung.

Bildergalerie: Coud Computing und Cloud Services
Einsatzgebiete von Cloud Services
Hardware-Kapazität (Rechenleistung und Speicherplatz), E-Mail und Geschäftsanwendungen werden besonders gerne in die Cloud ausgelagert.
Gründe für die Cloud
"Kosten senken" ist auch bei Cloud Services die Hauptmotivation. Warum der Punkt "Personalkosten in der IT senken" so unwichtig sein soll, mag an der Gruppe der befragten IT-Verantwortlichen liegen - die Geschäftsleitung sieht das möglicherweise anders.
Gründe gegen die Cloud
In den Firmen selbst ist man sich nicht sicher, ob man Daten überhaupt auslagern darf. Außerdem kennt sich niemand damit aus und ein Budget dafür gibt es noch nicht.
Gründe gegen die Cloud
Dem Cloud-Diensleister gegenüber misstraut man in Sachen Sicherheit und gesetzeskonformer Handhabung.

Auch für Cloud Computing, zu dem das Cloud Storage zählt, ist eine durchgehende Virtualisierung im Rechenzentrum notwendig, wie Analyst Josh Krischer angibt. Hierzu zählen die Server, Kommunikationswege sowie der Speicher.

In diesem Artikel führen zeigen wir Ihnen, welche Überlegungen Sie sich bei der Storage-Virtualisierung und Cloud Storage machen sollten.

Cloud Storage: Die Anwender zögern noch

Bis die Speichervirtualisierung im nächsten Schritt der Storage-Cloud auf breiter Basis zum Durchbruch verhilft, dürfte es allerdings noch etwas dauern. Zwar sprühen die Speicheranbieter vor Zuversicht und präsentieren erste Angebote, aber die Anwender geben sich skeptisch. Vor allem Fragen zur Sicherheit der wertvollen hauseigenen Datensammlungen halten die Unternehmen derzeit noch davon ab, Firmeninformationen an Serviceanbieter auszulagern. Allenfalls Daten mit langen Aufbewahrungsfristen wie beispielsweise Archivmaterial scheint derzeit für das Modell Cloud-Storage interessant, haben die Analysten von Gartner herausgefunden.

Zudem offenbart der Speicher in der IT-Wolke technische Grenzen. Beispielsweise kommt bei Daten, die schnell verfügbar sein müssen, die Hürde eines schnellen Transfers hinzu: Die Netzwerkanbindung zwischen den Applikations-Servern und dem Speicher-Rechenzentrum der Service Provider ist beschränkt hinsichtlich Verfügbarkeit und Performance - ein schwerwiegender Nachteil in den Augen der Anwender.

Anbieter müssen auf Compliance achten

Trotz aller Bedenken auf Anwenderseite, bauen die IT-Anbieter mit Hochdruck an ihren Speicherofferten im Netz. Einer der ersten Anbieter von Cloud-Storage war die Telekom. Deren Angebot geht allerdings weit über die bloße Datenspeicherung hinaus und umfasst auch das Mieten und Betreiben von Anwendungen oder Hosting und Housing der Anlagen. IBM bietet mit "Smart Business Storage Cloud" eine Lösung für den Inhouse-Betrieb (Private Cloud) an. Unterstützt werden nach Herstellerangaben "viele Petabyte an Speicherkapazität, Milliarden von gespeicherten Files und dank Scale-out-Technik eine Performance, die bislang nur von Systemen aus dem High-Performance-Computing erreicht wurde".

Dabei sollen Anwender ihre Speicherarchitektur nicht komplett umkrempeln oder migrieren müssen, verspricht der Anbieter. IBM zufolge bleibe der Cloud-Speicher kompatibel zu den herkömmlichen Methoden beim Filezugriff. Darauf lege man besonderen Wert, verlautete von Seiten des Storage-Providers, damit potenzielle Kunden nicht per Technik an den Serviceanbieter gekettet werden.

In einem nächsten Schritt will IBM darüber hinaus Lösungen im Rahmen einer Public-Storage-Cloud anbieten. Dabei tauchen allerdings zusätzliche Hürden auf, zumindest wenn ein Kundenunternehmen weltweit agiert. "Neben den Faktoren, die die Sicherheit betreffen, geht es um die verschiedenen Compliance-Regeln und die Messungen zur Wirtschaftlichkeit des neuen Modells, beschreibt Dieter Münk, Vice President Storage und Verantwortlicher für World Wide Business Development bei IBM, die Herausforderung. Derzeit sind weltweit rund 50.000 Compliance-Regeln zu beachten, die von den Anbietern von Storage-Cloud-Services zu berücksichtigen sind. Für Länder wie Japan oder China dürfte Public Cloud Storage aus Sicht des Experten daher kaum in Frage kommen. Aber auch die Wirtschaftlichkeit einer solchen Lösung lässt sich nach Meinung Münks derzeit nur schwer messen.

Als ein weiterer Anbieter von Utility Storage hat sich mittlerweile 3Par Inc. in Stellung gebracht. Die kalifornische Company, bis dato hauptsächlich bekannt durch ihre skalierbaren Speicher, mausert sich zu einem Top-Anbieter für Cloud Storage Computing. Beispielsweise hat 3Par kürzlich für seine Kunden aus dem Lager der Service Provider das "Cloud-Agile"-Programm entwickelt, mit dem die Partner differenzierte Angebote, etwa für Disaster Recovery, an ihre Kunden weitergeben können. Zusätzlich hat der Anbieter eine neue Software auf den Markt gebracht, mit der vor allem magere Datenvolumen erreicht werden sollen, um die Speicherabläufe zu beschleunigen und effizienter zu machen. "3Par setzt darauf, die Datenbestände möglichst zu verschlanken", erklärte Craig Nunes, 3Pars Vice President Worldwide Marketing. "Mit den Thin-Techniken sorgen wir für einen schnellen Datentransfer und die effektivere Nutzbarmachung von freien Kapazitäten." Im Prinzip gehe es dabei darum, keine überschüssigen Kapazitäten vorzuhalten, Datenbestände zu verschlanken und frei gewordenen Speicherplatz für neue Anwendungen nutzbar zu machen.

Speicherwolken für mehr Unabhängigkeit

Ekkehard Spieth, Europachef des Service-Providers Freudenberg IT, setzt die 3Par-Technik bereits ein. Er sieht für sein Cloud-Angebot vor allem einen Vorteil für die Kunden: Unabhängigkeit. "Dem Kunden ist es im Grunde egal, von welchem unserer drei Standorte wir ihm Speicherkapazität zuweisen. Hauptsache, wir garantieren die Services." Dabei bietet Freudenberg IT auf Wunsch für sensible Daten auch physikalisch getrennte Partitionen an.

Der Vorteil, über Thin Provisioning Speicherkapazität zu sparen, hält sich laut Spieth allerdings in Grenzen: "Wir müssen als Serviceanbieter damit rechnen, dass alle Anwendungen maximale Kapazität einfordern und dafür entsprechend gerüstet sein."

Kritisch sieht der Manager auch den Trend in der Industrie, Festplatten mit immer höheren Kapazitäten herzustellen. Damit stiegen die Zugriffszeiten auf die Daten und gleichzeitig sinke die Performance. "Da muss mit rechtem Augenmaß ein Mittelweg gefunden werden", forderte der Manager. Gleiches gelte für die Automatisierung von immer wiederkehrenden Abläufen, die oft als wünschenswert angesehen wird. Den unbestreitbaren Vorteilen stehe aber der Nachteil gegenüber, dass man durch die Automatisierung unbeweglicher wird.

Speicher an Rechenzentrum, bitte kommen

Noch nicht entschieden ist die Frage, welche Kommunikationsverbindung sich in Zukunft im Rechenzentrum durchsetzen wird. Eines scheint indes klar: Die virtuelle Welt wird mehr Bandbreite benötigen. Vor diesem Hintergrund scheint sich eine große Anhängerschaft rund um 10-Gigabit-Ethernet zu scharen. "Cloud Computing wird auf 10 Gbit/s laufen", ist sich Shaun Walsh, Vice President Marketing von Emulex, sicher. Die Kalifornier zeigten auf der Konferenz in Frankfurt ihre Lösung für eine integriertes Rechenzentrum: Die "Universal Converged Network Adapter" verstehen die Protokolle TCP/IP, iSCSI und Fibre Channel over Ethernet (FCoE). Die Lösungen sind modular aufgebaut, so dass Anwender zunächst mit 10 Gbit/s Ethernet starten können und dann je nach Bedarf die Unterstützung für die Speicherprotokolle nachrüsten können.

Einen ähnlichen Ansatz verfolgt auch Cisco mit dem Konzept des "Unified I/O". Die Vielzahl der Interfaces an den Servern soll ersetzt werden durch sogenannte "converged" Netzwerkadapter. Im März dieses Jahres hatte der Hersteller eigene Blade-Server vorgestellt. Diese verfügen nicht wie üblich über zwei Ethernet- und zwei FC-Switches sondern über zwei "Fabric extender". Damit laufen das FC- und Ethernet-Protokoll auf nur mehr einem Kabel.

Diese Reduzierung ist aus Sicht von Experten notwendig, gerade beim Cloud Computing. Denn bei allen Vorteilen der Virtualisierung, die Technik hat auch zwei gravierende Nachteile: Die Komplexität steigt und die Transparenz sinkt. Deshalb werden die Anforderungen an das Management solcher verbundenen virtuellen Komponenten steigen.

Sieben Tipps für die Storage-Virtualisierung

Speicheranalyst Josh Krischer hat die diversen Möglichkeiten zur Speichervirtualisierung unter die Lupe genommen und rät Anwendern, dabei auf folgende Punkte zu achten:

Dieser Artikel basiert auf einem Beitrag unserer Schwesterpublikation Computerwoche. (cvi)