Datenspeicherung optimieren

Tipps: Storage-Kosten effektiv senken

21.10.2009 von Martin Bayer
Die Menge der gespeicherten Daten wächst auf den Storage-Systemen unablässig. Im Zuge der knappen IT-Budgets und komplexen Compliance-Regeln bei der Archivierung muss der IT-Verantwortliche seine Storage-Ressourcen effektiv und kostengünstig verwalten.

Die meisten CIOs müssen auf Grund der aktuellen wirtschaftlichen Situation mit ihren IT-Budgets haushalten. Demgegenüber steht der wachsende Bedarf an Storage-Platz gegenüber. Laut einer Studie von IDC verdoppelt sich das digitale Datenvolumen bis 2012 alle eineinhalb Jahre. Allerdings sind in den letzten Jahren auch die Kosten für die Speicherhardware deutlich gefallen. Nach Einschätzung der Analysten von Experton zufolge sinken die Preise im Durchschnitt jährlich um etwa 30 Prozent.

Dennoch steigt in den IT-Abteilungen der Arbeitsaufwand für die Verwaltung von Firmendaten. Ursachen sind die strengen und komplexen Compliance-Regeln für die Datenarchivierung und die schon erwähnte wachsende Datensintflut in den Unternehmen sowie die schnelle Aufbereitung und Verfügbarkeit der Daten in den einzelnen Firmenabteilungen. Um diesen Aspekten wirkungsvoll zu begegnen, ist ein effizientes Informations- und Storage-Management erforderlich.

Allerdings schraubt das oft die Gesamtkosten für die Storage-Abteilungen weiter nach oben. Aus diesem Grund hat die Experton Group elf Ratschläge herausgegeben, wie sich durch gezielte Maßnahmen der Storage-Aufwand reduzieren lässt und dabei die Kosten überschaubar bleiben. Die Tipps umfassen die Blickfelder Hardware, Prozesse und Softwarewerkzeuge:

Prozesse - Datenhaltung will organisiert sein

Archivierung: Die meisten Unternehmen haben Daten mehrfach in ihren Archiven mehrfach kopiert und abgelegt. In Extremfällen können die Informationen an bis zu 50 verschiedenen Stellen in den oft verteilt organisierten Storage-Systemen liegen, berichten die Experten von ihren Erfahrungen. Die Verantwortlichen in den Firmen sollten deshalb einen Plan entwickeln, um die unnötigen Dubletten in den Systemen zu identifizieren und sie zu entfernen. Außerdem müssen sie Vorkehrungen treffen, damit während der künftigen Archivierungsprozesse keine neuen Doppler entstehen. Das entschlackt die Datenablage und spart Zeit sowie Speicherplatz.

Kapazitätsplanung: Die Unternehmen müssen ihre Storage-Kapazitäten besser planen, fordern die Analysten. Schlüsselfaktor für mehr Effizienz ist jedoch der Überblick darüber, wie stark die eigenen Speichersysteme ausgelastet sind. Daran mangelt es vielen Unternehmen. Oft werden Storage-Kapazitäten nicht beziehungsweise nur unzureichend genutzt. Der Anteil dieses verlorenen Speichers kann manchmal bei bis zu 50 Prozent der Gesamtressourcen liegen. Die Verantwortlichen müssen sich deshalb zunächst ein Bild darüber verschaffen, wie effizient sie den eigenen Speicher nutzen, und dann in einem zweiten Schritt Prozesse implementieren, mit denen die Speicherauslastung dauerhaft optimiert wird. Dadurch lassen sich die benötigten Storage-Kapazitäten und auch der Verwaltungsaufwand verringern.

Durchblick: Eine überfüllte Datenablage mit vielen Dopplern belastet das Archiv. Nur schlanke Archive funktionieren wirklich effizient.

Konsolidierung: Storage-Landschaften lassen sich auf zwei Arten konsolidieren. Zum einen können Anwender unterschiedliche Speicherorte zentralisieren beziehungsweise viele einzelne verteilte Systeme in größeren Storage-Arrays zusammenfassen. Dadurch vereinfacht sich das Management der Speicherlandschaften. Zum anderen lassen sich Storage-Architekturen konsolidieren, beispielsweise indem Direct Attached Storage (DAS) durch Speichernetze abgelöst wird. Das können Network-Attached-Storage-(NAS-) oder Storage-Area-Network-(SAN-) Architekturen sein. Mit dem Umstieg von DAS auf NAS beziehungsweise SAN lassen sich die Kosten für Speicherhardware senken, da die Firmen Storage-Ressourcen im Netz effizienter auslasten können. Darüber hinaus vereinfacht sich das Management der Geräte, weil diese nicht mehr einzeln gesteuert werden müssen, sondern Administratoren sie mit Hilfe einer zentralen Management-Konsole im Netz verwalten können. Den Analysten zufolge erlaubt der Umstieg auf Speichernetze Kostensenkungen auf die Hälfte oder gar ein Viertel.

Daten-Management: Mit Hilfe eines Master Data Managements (MDM) lassen sich Daten konsolidieren, bevor sie überhaupt auf den Storage-Systemen landen. Dafür müssen die Firmen jedoch neben Hardware und Softwarewerkzeugen auch die entsprechenden Prozesse im Unternehmen implementieren. Anwender erhalten über ein zentrales Repository einen genauen Überblick, wo welche Daten abgelegt sind. Außerdem lassen sich mit Hilfe der Tools und festgelegten Regeln Datendubletten sowie eine unnötig hohe Zahl von verschiedenen Versionsständen eines bestimmten Datenbestands verhindern. Das spart Speicher und Verwaltungsaufwand. Darüber hinaus hilft den Business-Einheiten ein effizientes Daten-Handling, ihre Geschäfte zügiger und zielgerichteter abzuwickeln.

Beschaffung: Um den Überblick über ihren Speicher-Pool nicht zu verlieren, sollten Unternehmen Speichergeräte zentral einkaufen. Darüber hinaus empfiehlt es sich, ein oder zwei strategische Storage-Lieferanten auszuwählen und mit diesen langfristige Lieferverträge über mindestens drei Jahre auszuhandeln. Dazu müssen die Kunden allerdings wissen, wie sich ihr Speicherbedarf in der Zukunft entwickeln wird. Zwar bindet sich ein Unternehmen so an die Anbieter, kann aber höhere Preisnachlässe herausholen. Wer seine Kosten über einen längeren Zeitraum strecken möchte, sollte über Finanzierungs- und Leasing-Konditionen verhandeln. Dabei sollte nicht nur der Preis im Mittelpunkt stehen. Anwender dürfen beispielsweise Aspekte wie Upgrades nicht vergessen. Außerdem sollte sich in den Verträgen die Preisentwicklung widerspiegeln. Gerade bei der Hardware ist der jährliche Preisverfall eklatant. Wird das nicht berücksichtigt, zahlen die Firmen am Ende überteuerte Preise.

Hardware - aber bitte mit eingebauter Effizienz

Storage-Techniken: Auch wenn die Anschaffung neuer Speicherhardware auf den ersten Blick teuer erscheint, kann sich der Kauf lohnen. Dann nämlich, wenn die Hersteller in den Maschinen Mechanismen implementieren, die den Kunden helfen, ihre Speicherlandschaften effizienter und kostengünstiger zu betreiben. Aber Vorsicht: Viele Techniken sollen teilweise spezielle Storage-Nöte beim Anwender beheben. Werden die entsprechenden Applikationen aber gar nicht eingesetzt, nützt die beste Technik nichts. Allerdings gibt es auch Techniken, die grundsätzliche Speicherprobleme adressieren. Beispielsweise integrieren die Hersteller in ihren Content-Addressed-Storage-(CAS-) Geräten Softwaremechanismen wie Deduplication-Technik, die überflüssige Datendubdletten verhindern soll. Das ist beispielsweise sinnvoll in großvolumigen E-Mail-Archivierungssystemen. Darüber hinaus sollten Anwenderunternehmen genau planen, wo sie ihre Daten ablegen. Informationen, die zwar archiviert werden müssen, aber nur selten abgerufen werden, sind auf Bandlaufwerken besser aufgehoben als in teuren Disk Arrays. Nach Einschätzung der Analysten lohnt sich diese Aufteilung: Eine ausgewogene Band-Disk-Landschaft, in der die Daten auf dem jeweils sinnvollen Medium gespeichert sind, kann die Storage-Kosten um bis zu 50 Prozent senken.

Cloud Computing: Im Rahmen von Cloud Computing kommen immer mehr Anbieter auf den Markt, die Speicher aus der IT-Wolke anbieten. Die IT-Verantwortlichen sollten sich mit diesen Alternativen beschäftigen, beispielsweise für Testsysteme. Der dafür notwendige Speicherbedarf könnte günstiger und effizienter aus dem Netz bezogen werden, da die dafür notwendigen Daten doppelt vorgehalten werden müssen - für das Produktiv- und das Testsystem. Darüber hinaus könnte sich Online-Speicher oder Storage-as-a-Service für nicht unternehmenskritische Datenarchive oder einfache Backup-Funktionen eignen. Bevor die IT-Verantwortlichen ihre Unternehmensinformationen in die Cloud schicken, sollten sie allerdings Technik und Service-Level der Anbieter genau prüfen sowie die anfallenden Kosten unter die Lupe nehmen und mit dem Aufwand im eigenen Haus vergleichen.

Storage-Upgrades: Um auf der sicheren Seite zu sein und sich nicht dem Vorwurf aussetzen zu müssen, dass der zur Verfügung stehende Speicher nicht ausreicht, tendieren die meisten IT-Verantwortlichen dazu, zu viel Storage einzukaufen. Doch neben den Kosten für die Anschaffung beansprucht der überflüssige Speicher Stellfläche, Energie und Verwaltungsaufwand. Dazu kommt, dass die nicht genutzten Storage-Systeme womöglich schnell veralten. Unternehmen sollten daher die Kosten für den gesamten Lebenszyklus von Speichergeräten in ihre Überlegungen einbeziehen und dann mit spitzem Bleistift ausrechnen, wie teuer der meist brachliegende Reservespeicher kommt. Um einem möglichen Speicherengpass vorzubeugen, sollten die Verantwortlichen in den Firmen flexible Upgrade-Verträge abschließen, die bei Bedarf einen schnellen Ausbau des Speicher-Pools ermöglichen.

Software - soll die Daten im Blick haben

Deduplication: Der Schlüssel für effiziente Storage-Landschaften liegt heutzutage in der Software, während die Hardware in weiten Teilen Commodity ist. Um den Speicherplatz möglichst effektiv auszulasten, bieten viele Hersteller beispielsweise Deduplication-Tools an. Mit Hilfe dieser Softwarewerkzeuge lassen sich Dubletten von Datenbeständen erkennen und entfernen. Studien zufolge können Anwender den Speicherbedarf so um bis zu 85 Prozent reduzieren.

Thin Provisioning: Für einen effizienteren Storage-Betrieb sorgen auch Thin-Provisioning-Tools. Innerhalb der vorhandenen Speicher-Pools werden einzelnen Anwendungen in aller Regel feste Storage-Ressourcen zugewiesen. Doch meist nutzen die Applikationen den ihnen allokierten Speicher nur wenig effektiv. Nach Einschätzung der Experten liegt der Auslastungsgrad manchmal bei nur zehn Prozent oder sogar darunter. Mit Hilfe von Thin-Provisioning-Werkzeugen lässt sich der Speicher flexibel auf die Anwendungen verteilen. Nach Bedarf bekommt die Software den benötigten Platz zugeteilt. Damit erreicht die Effizienz der Storage-Auslastung - je nachdem, wie geschickt das Werkzeug die Speicherressourcen handhaben kann - bis annähernd 100 Prozent.

Management-Tools: Darüber hinaus bieten Speicher- und Softwarehersteller eine ganze Reihe verschiedener Softwarewerkzeuge an, mit denen sich das Storage-Management verbessern lassen soll. Um die richtigen Tools auszuwählen, sollten Anwenderunternehmen gemeinsam mit dem bevorzugten Storage-Lieferanten die eigene Speicherumgebung sowie die dort anfallenden Aufgaben analysieren. Diese Bestandsaufnahme sollte nichts kosten, schließlich kann der Anbieter auf Zusatzgeschäft mit Software hoffen. Wichtige Kriterien für die Auswahl der Management-Tools: Sie müssen sich schnell implementieren lassen und innerhalb kurzer Zeit amortisieren.

Fünf weitere Speichertipps auf einen Blick

1. Achten Sie auf Interoperabilität: Viele Storage-Umgebungen sind heterogen zusammengesetzt. Um diese Speicherpools effizient verwalten und nutzen zu können, muss die entsprechende Software möglichst viele Speicher-Devices unterschiedlicher Hersteller managen können.

2. Der richtige Platz für die Daten: Prüfen Sie die Anforderungen der Datenhaltung in puncto Verfügbarkeit und Performance. Informationen, auf die einmal im Jahr zugegriffen wird, müssen nicht auf einem teuren Highspeed-Speicher liegen. Tiered-Storage-Architekturen helfen, den richtigen Ablageort zu finden.

3. Information-Lifecycle-Management (ILM): Für eine effiziente Datenhaltung genügt es nicht, die Daten auf einen Speicher zu schaufeln und sich dann nicht mehr darum zu kümmern. Anwender müssen im Rahmen von ILM kontinuierlich prüfen, ob die Informationen entsprechend ihrer Relevanz am richtigen Ort liegen.

4. Zentrale Speicherkonsole: Ziel der Anwender muss sein, angesichts immer größer werdender Datensilos deren Verwaltung so einfach wie möglich zu gestalten. Das funktioniert am besten mit einer zentralen Management-Konsole, über die alle wichtigen Funktionen wie Snapshots, Backup und Recovery quer über den gesamten Storage-Park gesteuert werden können.

5. Disaster Recovery richtig dimensionieren: Für die gespiegelte Storage-Umgebung sind nicht die gleichen Highend-Systeme wie im Primär-Rechenzentrum notwendig. Unterstützt die entsprechende Software heterogene Landschaften, können am Disaster-Recovery-Standort auch günstigere Midrange-Systeme zum Einsatz kommen. Die einfachere Ausstattung tut es in aller Regel für die kurzen Zeiten, in denen die Erst-Speicher ausfallen.

Kosten sind nicht gleich Kosten

Anwenderunternehmen müssten ihre Speicherkosten wesentlich differenzierter betrachten, als sie dies meist tun, schreiben Storage-Experten den Anwendern ins Hausaufgabenheft. Oft werde nur auf die Preise pro Gigabyte geschaut. Das sei zwar eine einfache Metrik, reiche aber bei weitem nicht aus, um die Gesamtkosten des Speicherbetriebs richtig zu kalkulieren. Die Kosten für physischen Speicher sinken kontinuierlich zwischen 20 und 30 Prozent pro Jahr. Viele Unternehmen leiteten daraus ab, ihre Speicherbudgets flach halten zu können.

Das ist den Experten zufolge allerdings ein Trugschluss. Der Bedarf an Storage wachse jährlich zwischen 30 und 60 Prozent, und damit auch der Aufwand, die Daten zu verwalten. Die Anschaffung von Speicher mache lediglich 20 bis 30 Prozent der Gesamtkosten aus. Um die gesamte Speicher-TCO unter Kontrolle zu bekommen, müssten nach Einschätzung von Hitachi Data Systems (HDS) insgesamt über 30 Einzelfaktoren berücksichtigt werden, beispielsweise Raum- und Energiekosten sowie Aufwände für Wartung, Arbeit und Migrationen. Aufgrund der vielen Kostenblöcke sei es allerdings keine leichte Übung, die Storage-TCO auszurechnen. Die Experten des Storage-Anbieters empfehlen folgendes Vorgehen:

HDS bietet interessierten Kunden verschiedene Tools und Services, um die Storage-Kosten in den Griff zu bekommen. Beispielsweise sollen sich mit Hilfe des "Tiered Storage Economics Quick Estimator" die Effekte von Speicherinvestitionen zügig errechnen lassen. In das Tool sind laut Hersteller Erfahrungen aus über 600 Kundenprojekten eingeflossen. (hal)

Dieser Artikel basiert auf einem Beitrag unserer Schwesterpublikation Computerwoche .