Darauf müssen Sie achten!

Ratgeber: Risiken bei der Servervirtualisierung vermeiden

Servervirtualisierung kann Unternehmen viele Vorteile bringen, beispielsweise mehr Flexibilität und eine bessere Auslastung der Ressourcen. Doch es gibt Kosten- und Betriebsrisiken, die IT-Verantwortliche kennen sollten.

Servervirtualisierung gilt vielen als Universalwaffe gegen ausufernde IT-Kosten und komplexe Serverstrukturen. Die Schattenseiten der Technik und ihres Einsatzes werden jedoch oftmals übersehen. Denn virtualisierte Infrastrukturen bringen ihre eigenen Schwierigkeiten mit sich - von Security-Problemen über hohe Anforderungen an Ausfallsicherheit und Desaster Recovery bis hin zu diffizilen Lizenzierungsthemen.

Die Nutzenpotenziale wie Kostenersparnis und flexibilisierten IT-Einsatz kann nur erreichen, wer die Risiken kennt und die typischen Fallen vermeidet.

Falle 1: Alter Wein in neuen Schläuchen

Am Anfang steht die Erkenntnis, dass viele der Gesetzmäßigkeiten für physische Rechner und Server, die jeweils für eine einzelne Applikation zuständig waren, in virtualisierten Umgebungen nicht mehr zutreffen. Viele der Tools, Organisationsvorgaben und Denkweisen der Zeit "vor der Virtualisierung" sind mit modernen Umgebungen nicht mehr kompatibel. Die Technik allein - also der Hypervisor - kann keine Revolution im Rechenzentrum bewirken und quasi im Vorbeigehen Kosten sparen. Auf eine kurze Formel gebracht: Virtuell ist nicht physisch.

Ein Hypervisor macht noch keine moderne IT-Umgebung

Während die Abkoppelung der Server von der Hardware erhebliche Vereinfachungen und mehr Flexibilität mit sich bringt, steigen die Anforderungen an intelligentes Management und Automatisierung der neuen Umgebung:

VM-Schwemme: Die Leichtigkeit, mit der Server in virtuelle Maschinen (VMs) verlagert werden, führt am Ende oft zu mehr Aufwand bei der Administration, weil plötzlich mehr (virtuelle) Server vorhanden sind als vorher und somit die schiere Masse der Systeme verwaltet werden muss. Damit verbundene Probleme: fehlender Überblick - zum Teil können virtuelle Maschinen nur am Dateinamen oder an einigen wenigen Meta-Informationen identifiziert werden -, übermäßiger Verbrauch von Speicherplatz, Update- und Pflegebedarf. Organisatorische Maßnahmen und Policies sollten von Anfang an greifen, um dies zu verhindern. Zudem ist es ratsam, dass Organisationen geeignete Tools für das Management virtueller Umgebungen evaluieren, um technische Unterstützung in Anspruch zu nehmen.

Neue Tools und Prozesse: Neue Möglichkeiten wie flexible Provisionierung, das Bereithalten von Images oder die Migration von VMs von einem Rechner zum anderen erfordern entsprechende Werkzeuge und neue Policies, mit denen die Kontrolle über das Gesamtsystem gewährleistet werden kann. Ohne Standardisierung von Prozessen und Umgebungen geht nichts.

Ausfallrisiko: Die Abhängigkeit von einigen wenigen Servern macht verletzlich. Virtualisierte Umgebungen fassen viele Server auf wenig Hardware zusammen. Dies impliziert, dass viele Server ausfallen, wenn ein Rechner die Arbeit niederlegt. Deshalb sind hohe Anforderungen an die Ausstattung und die Mechanismen für Hochverfügbarkeit herzustellen. Als Grundlage benötigen IT-Organisationen dafür Shared Storage in Form eines SANs (Storage Area Network), meist auf Basis von Fibre Channel oder iSCSI-Techniken. Das Speichernetz muss ebenfalls hochverfügbar ausgelegt sein.