Darauf müssen Sie achten!

Ratgeber: Risiken bei der Servervirtualisierung vermeiden

Falle 2: Falsche und übertriebene Erwartungen

Die Virtualisierungs-Euphorie verleitet Unternehmen dazu, mit falschen und zum Teil auch übertriebenen Erwartungen sowohl an die Fähigkeiten der Technik als auch an die potenziellen Nutzeneffekte heranzugehen. So werden bei der Planung und Einführung virtualisierter Server oftmals die Konsolidierungsfähigkeiten der neuen Infrastruktur überschätzt, was teilweise von optimistischen Herstelleraussagen gefördert wird. Mögen in Test-Setups und unter Laborbedingungen problemlos bis zu 50 verschiedene VMs auf einem Rechner ausreichend schnell und stabil laufen: In realistischen Produktions-Szenarios werden deutlich geringere Konsolidierungsraten erreicht. Für den Betrieb ressourcenintensiver geschäftskritischer Applikationen ist eine Beschränkung auf sechs bis acht VMs je Rechner durchaus üblich. Wird hier im Vorfeld von höheren Konsolidierungsraten ausgegangen, droht eine Kostenexplosion, da letztlich doch mehr Rechner bereitgestellt werden müssen, die wiederum mehr Storage, Netzwerkkapazität, Lizenzen und Administration benötigen.

Gerade zu Beginn von Virtualisierungsvorhaben werden oft eher weniger ausgelastete und weniger kritische Server auf virtuellen Systemen konsolidiert, was meist gut funktioniert. Zu Problemen kommt es, wenn diese Ratios in späteren Projektphasen auf hochgradig ausgelastete Mission-Critical-Systeme mit womöglich hohen Anforderungen an die Netzwerkbandbreite übertragen werden. Dies führt zwangsläufig zu eklatanten Flaschenhälsen.

Einer Faustregel folgend sollten virtualisierte Rechner so geplant werden, dass maximal 60 Prozent der physischen Ressourcen ausgelastet werden. Damit erreicht man immer noch hohe Konsolidierungsraten, hat aber gleichzeitig genügend Reserven. Entsprechend erhöhte Kosten sind dafür einzuplanen.

Projektkiller Server- und Netz-Performance

Virtualisierung bedingt durch die zusätzlich eingezogene Softwareschicht prinzipiell eine verringerte Performance bei Rechenleistung und Netzwerkdurchsatz. In gut konzipierten Infrastrukturen, bei denen auch die technischen Komponenten optimal aufeinander abgestimmt sind, macht sich dies kaum bemerkbar. Gibt es aber nur in einer der vielen Komponenten einen Ausreißer, kann dies die Leistung der gesamten Umgebung so negativ beinträchtigen, dass ein Einsatz unter produktiven Bedingungen unmöglich wird.

Probleme entstehen dabei vorrangig bei der Netzwerkanbindung sowie beim Speicher-I/O. Vor allem das Storage-System muss Performance-optimiert sein für die virtualisierte Umgebung. Das Muster des Zugriffs der virtualisierten Umgebung auf den Speicher ist dabei ein zentraler Faktor. Zumeist handelt es sich dabei um Random I/O. Für dieses ist nicht die Übertragungsbandbreite entscheidend, sondern die Anzahl möglicher Input/Output Operations (I/O) pro Sekunde.

Zudem sind nicht alle Workloads und Server für die Virtualisierung geeignet. Virtualisierungskandidaten sollten Projektverantwortliche neben der technischen Ablauffähigkeit vor allem unter Performance-Gesichtspunkten aussuchen. Ist ein physischer Server bereits bei mehr als 50 Prozent CPU-Auslastung und verlangt nach mehr als 6 oder 8 GByte RAM, scheidet er als Kandidat vermutlich aus, denn die virtuelle Umgebung kann nie schneller sein als die darunterliegende Physik. Zudem kann das Ziel der Konsolidierung nicht erfüllt werden. Gleiches gilt für eine hohe I/O-Auslastung.