Infrastruktur für virtualisierte Umgebungen

Ratgeber: Storage für virtuelle Maschinen auswählen

Die Virtualisierung von Servern lastet Ressourcen besser aus. Allerdings muss dann auch die Storage-Infrastruktur auf die sich verändernden Anforderungen abgestimmt sein. Lesen Sie, was Speichersysteme in virtualisierten Umgebungen leisten müssen und was die Hersteller anbieten.

Virtualisierung im Rechenzentrum führt auf verschiedenen Ebenen - Speicher, Netzwerk, Rechner, Anwendungen - Abstraktionsschichten ein, die eine flexiblere Verwaltung der zugrunde liegenden physikalischen Schicht ermöglichen. Durch die Einführung virtueller Provisionierungsmodelle auf dem Speicher und virtueller Laufwerke auf der Ebene des Hypervisors sind Konfigurationen nicht mehr wie gewohnt direkt von der darunterliegenden physikalischen Ebene abhängig. Dies führt dazu, dass sich Konfigurationen im laufenden Betrieb logisch verändern und an die jeweiligen Anforderungen der aktuellen Betriebssituation anpassen lassen. Daher gelten für das Speicherkonzept einige grundsätzliche Regeln, in deren Rahmen eine erste Konfiguration des Speichersystems vorgenommen werden sollte.

Die Storage-Regeln sollten abhängig von den jeweiligen Betriebsparametern verändert werden:

  • Virtualisierung ist Standard: Die Virtualisierungsschicht wird nur dann aufgebrochen, wenn es einen guten Grund dafür gibt (beispielsweise RAW-Devices vermeiden; sie sind schwierig zu verwalten und werden nur von wenigen Produkten unterstützt).

  • Datenspeicher so groß wie möglich anlegen, um den Verwaltungsaufwand zu minimieren. Die Anzahl der virtuellen Laufwerke im Datenspeicher hängt vom Anwendungsfall ab. Die meisten Produkte unterstützen bis zu einer dreistelligen Anzahl von virtuellen Laufwerken. Der Normalwert wird sich zwischen 10 und 30 Laufwerken pro Speicher bewegen.

  • Tiered-Storage-Speichermodelle nutzen, wo sie verfügbar sind. Auf Basis verschiedener Plattentechnologien (SSDs, FC/SAS, NL-SAS/SATA) mit unterschiedlichem Leistungsverhalten werden Datenspeicher für verschiedene Anwendungen generiert. In vielen Enterprise-Storage-Lösungen kann ein Sub-LUN-basiertes Loadbalancing von Hot-Spots im Speicher-Pool genutzt werden (automatisches Tiering).

  • Thin Provisioning inklusive der Möglichkeit zur Überprovisionierung (Oversubscription) auf Speicherebene einsetzen - Thick Provisionierung (Standard-LUNs) auf Hypervisor-Ebene. Thin auf Thin sollte man aus Gründen der Systemverwaltung und deren Überwachung vermeiden.

  • Bei Nutzung des NFS- oder FC-Protokolls individuelle operative Aspekte in den Vordergrund stellen. Gute Systemleistungen lassen sich mit beiden Protokollen erreichen.

Single-Point-of-Failure-Ansatz: Desaster Recovery und Desaster Avoidance

Viele Betreiber von Rechenzentren mit virtuellen Serverfarmen planen zusätzlich zu ihrem Hauptrechenzentrum weitere redundante Rechenzentren an entfernten Standorten - zumindest wäre dies ratsam. Die virtuellen Server sollen dabei in den meisten Fällen auf alle Rechenzentren verteilt aufgebaut und im Regelfall im Betrieb mit gegenseitigem Lastausgleich auf allen Rechnern verteilt betrieben werden.

Für die Speicherumgebung sowie die angeschlossene virtualisierte Serverlandschaft sollte es gegen einzelne Systemausfälle oder den Verlust eines ganzen Rechenzentrums einen standortübergreifenden Schutz geben. Der integrierte Einsatz gestaffelter, voneinander abhängiger Technologien für Desaster Recovery und Desaster Avoidance kommt hier in Betracht. Um einen standortübergreifenden Schutz der virtualisierten RZ-Umgebung zu gewährleisten, wäre es ratsam, eine Kombination von nativer Speicherreplikation und Hypervisor-eigenen strukturierten Wiederanlaufverfahren virtueller Server einzuführen.

Eine native Replikation zwischen Speichersystemen spiegelt Daten zwischen Arrays automatisch mit deren eigenen Bordmitteln, ohne dass der Eingriff durch externe Verfahren beziehungsweise Steuermethoden nötig ist. Für die synchrone Replikation sollte eine Round-Trip-Zeit von 5 ms nicht überschritten werden; in den meisten Fällen entspricht dies bei guter Leitungsqualität Strecken von 100 bis 150 km. Dies ist vom verwendeten Protokoll unabhängig, sodass sich sowohl klassische FC- als auch IP-Strecken verwenden lassen. Bei Round-Trip-Zeiten von über 5 ms beziehungsweise Leitungslängen von mehr als 150 km können die Speichersysteme asynchron gekoppelt werden. Neu geschriebene Daten gelangen dann mit einem gewissen Zeitverzug zum entfernten Speichersystem.