12000 virtuelle Maschinen in einer Microsoft-Cloud

Test: Virtualisierung mit Microsoft Hyper-V

05.11.2014 von Michael Kallus
Microsoft Hyper-V ist zu einer vollwertigen Lösung herangewachsen. Die GAD eG, ein Spezialist für Banken-IT, hat nun die Grenzen der Microsoft-Cloud ausgelotet und dazu ein Cluster mit 12000 virtuellen Maschinen aufgebaut. Dabei kam auch eine neue Storage-Technik zum Einsatz, die teure SANs bei der Virtualisierung ersetzen könnte.

Seit gut fünf Jahren schickt Microsoft seine Virtualisierungslösung gegen VMware ins Rennen. Hyper-V bietet vor allem mittelständischen Unternehmen eine gute Basis für die x86-Server-Virtualisierung, konnte sich jedoch in großen Installationen nicht gegen VMware behaupten.

Mit dem Release 3 und der Integration mit Windows Server 2012 hat sich Hyper-V den Herausforderungen großer Installationen angenähert. Gemäß seinen Leistungsdaten könnte es heutige Server-Hardware effizient ausschöpfen. Bis zu 8000 virtuelle Maschinen und 64 Knoten darf ein Hyper-V-Cluster laut Microsoft-Spezifikationen mittlerweile umfassen. Und jeder Host unterstützt 320 logische Prozessoren, 4 TByte RAM sowie 2.048 virtuelle CPUs. Das zeigt, wie sich Windows Server 2012 R2 in Richtung Cloud-Betriebssystem entwickelt.

Bildergalerie: Microsoft Hyper-V
Hyper-V Server 2012 R2
Die Einrichtung von Hyper-V Server 2012 R2 nehmen Sie über das textbasierte Tool sconfig vor. Dieses steht auch auf Core-Servern zur Verfügung.
Hyper-V Server 2012 R2
In Sconfig lassen sich alle grundlegenden Einstellungen bequem über Assistenten vornehmen. Danach verwalten Sie den Server mit dem Hyper-V-Manager oder SCVMM 2012 R2 von anderen Servern aus.
Hyper-V Server 2012 R2
Hyper-V Server 2012 R2 integriert sich nahtlos in den Server-Manager von Windows Server 2012 R2 aus. Dieser steht auch für Windows 8.1 zur Verfügung.
Hyper-V Server 2012 R2
Virtuelle Switches verbinden die virtuellen Server mit den Netzwerkkarten des Hosts. Diese Funktion steht auch in Hyper-V Server 2012 R2 zur Verfügung.
Hyper-V Server 2012 R2
Während der Erstellung eines virtuellen Computers können Sie auch in Hyper-V Server 2012 R2 die Generation auswählen.
Hyper-V Server 2012 R2
Hyper-V Server 2012 R2 binden Sie auch an System Center Virtual Machine Manager 2012 R2 an. So können Sie den Server noch besser verwalten.
Hyper-V Server 2012 R2
Virtuelle Server erstellen Sie in SCVMM über einen Assistenten, ähnlich wie im Hyper-V-Manager.
Hyper-V Server 2012 R2
Mit einem Patch können Sie Veeam Backup 7 fit für Hyper-V Server 2012 R2 machen.
Veeam Backup kann virtuelle Server in Windows Server 2012 R2 und Hyper-V Server 2012 R2 sichern
Veeam Backup kann virtuelle Server in Windows Server 2012 R2 und Hyper-V Server 2012 R2 sichern.

Doch wie belastbar ist solch eine Architektur mit mehreren tausend virtuellen Maschinen? Ist ihre Performance noch angemessen und wie gut arbeiten die angeschlossenen Systeme an ihrer Grenze?

Dem IT-Team der GAD bot sich im Frühsommer 2014 die Gelegenheit, das zu testen. Die GAD eG betreut mehr als 410 Volks- und Raiffeisenbanken, Zentralinstitute und weitere Unternehmen in der genossenschaftlichen FinanzGruppe und betreibt nach eigenen Angeben eines der sichersten Rechenzentren Europas.

Drei Wochen für Performancetests mit 64 Servern

Die Münsteraner migrieren gerade die komplette IT-Landschaft aller betreuten Volksbanken in ihre Private-Cloud-Umgebung. Für dieses Projekt wurden 64 Blade-Server angeschafft, die drei Wochen lang für einen Lasttest zur Verfügung standen.

"Man hat nicht alle Tage so eine Hardware zur Verfügung", schmunzelt Thomas Büdenbender, Systems Engineer bei der GAD. Daher beschloss das IT-Team, die Chance zu nutzen und für den anstehenden Lasttest einen Hyper-V-Cluster mit 64 Knoten und 8.000 virtuellen Maschinen aufzubauen. "Wir wollten die Microsoft-Cloud testen und ihre Support-Grenzen überschreiten", berichtet Büdenbender.

Ein Cluster dieser Größe ist auch für die GAD Neuland. Sie betreibt ihre produktive Hyper-V-Umgebung in unterschiedlichen Clustergrößen - von zwei bis 28 Knoten ist alles zu finden. In der Produktivumgebung sind rund 4.000 virtuelle Maschinen auf 450 Hyper-V-Hosts in Betrieb. Mitte 2015, wenn das große Rückführungsprojekt abgeschlossen ist, sollen es 7.000 sein.

"Für unsere Private-Cloud-Umgebung interessierte uns natürlich, wie weit man die Plattform ausreizen kann und mit welchen Reserven sich wirklich planen lässt", so Büdenbender. Büdenbender und sein IT-Team haben bereits einiges Know-how bezüglich Windows Server 2012 und Hyper-V aufgebaut, da die GAD als Technical Adoption Partner von Microsoft die Versionen in einer frühen Phase testet und dabei auch an der Entwicklung neuer Funktionen beteiligt ist.

Datei-Server als Storage für den Mega-Cluster

Darüber hinaus wollte das IT-Team die Gelegenheit nutzen und eine neue Fileserver-Technologie von Microsoft testen. "Windows Server 2012 R2 bietet mit dem Scale-out File-Server und dem Server-Protokoll SMB 3.0 erstmals die Möglichkeit, Datei-Server als Shared Storage für Hyper-V-Cluster einzusetzen", erläutert Büdenbender.

So sah die Speicherarchitektur des Mega-Clusters aus: Zwei Scale-out File-Server bilden einen Cluster mit zwei Knoten, der über das Server-Protokoll SMB 3.0 Shared Storage für das Hyper-V-Cluster bereitstellt.
Foto: GAD eG

Daher wurden zwei Dell PowerEdge R720 mit 384 GByte RAM und zwei CPUs mit 8 Cores in die Testarchitektur eingebunden. Die beiden dienten als Scale-out File-Server und sollten den Shared Storage für das Hyper-V-Cluster bereitstellen. Für die Anbindung an das Cluster waren die Dell-Server mit je zweimal 10-GBit-Netzwerk ausgestattet.

Als Storage-System stand beiden Scale-out File-Server ein SAN zu Verfügung, das 491 Festplatten und 145 TByte Kapazität bereitstellte. Dieses wurde über je zweimal 8 GBit Fibre Channel angebunden. Die 64 Blades waren ausgestattet mit je 512 GByte RAM, vier CPUs E5-4620 mit 8 Cores und viermal 10-GBit-Netzwerk.

Unterschiedliche Server-Hardware kostet Zeit

Zunächst musste das GAD-Team die Hardware überprüfen. "Das war ein großer Teil der Arbeit", berichtet Büdenbender. "Wir hatten die alltäglichen Probleme, wenn man Server installiert." So waren die Maschinen nicht identisch, obwohl sie aus der Lieferung stammten. Sie besaßen unterschiedliche Netzwerkkarten und BIOS-Einstellungen und -Stände.

Zudem schlug sich das IT-Team einige Zeit mit Treiber-Inkompatibilitäten herum, bis die Hardware bereitstand. Schließlich wurden die 64 Hyper-V-Hosts mit Microsoft System Center Configuration Manager installiert, bis der Cluster ausgereizt war.

Damit war die Zeit reif, die erste Support-Grenze von Microsoft auf die Probe zu stellen: "Beim Versuch, den 65-sten Hyper-V-Knoten aufzunehmen, erhielten wir jedoch die Meldung, der Cluster habe die maximale Anzahl erreicht", berichtet Büdenbender. "Das bestätigt, dass 64 Hosts ein hartes Limit im Cluster ist. Hier besteht kein Spielraum."

8000 virtuelle Maschinen an Bord

Nun ging es an die nächste Grenze. Es erfolgte das Deployment von 8000 virtuellen Maschinen über Microsoft System Center 2012 R2 Virtual Machine Manager. Das dauerte zwei Tage und zwei Nächte.

Anschließend führte das IT-Team einige Tests durch, beispielsweise schwenkte es bis zu 200 virtuelle Maschinen zwischen den Knoten hin und her. "Selbst unter dieser Belastung funktionierte der Cluster zuverlässig und mit angemessenem Tempo. Die 8000 virtuellen Maschinen ließen sich problemlos managen", so Büdenbender.

Unter anderem leitete das IT-Team einen Bootstorm ein: Alle 8000 virtuellen Maschinen wurden über die PowerShell heruntergefahren und dann gleichzeitig gestartet. In solch einem Fall sorgen Microsoft-interne Prozesse dafür, dass nicht alle Maschinen auf einmal, sondern in Chargen starten. "Innerhalb von 45 Minuten hatte das System alle Maschinen hochgefahren. Das war beeindruckend", berichtet Büdenbender.

4000 virtuelle Maschinen nach Feierabend

"Es war bereits Freitagabend und wir mussten am Dienstag die Umgebung freigeben", erzählt Büdenbender. Daher ließ das Team das Deployment mit Virtual Machine Manager einfach weiterlaufen.

Am Montagmorgen waren weitere 4000 virtuelle Maschinen hinzugekommen und der Cluster umfasste beinahe 12.000 Maschinen. "Nach wie vor funktionierte die Konstruktion einwandfrei und mit annehmbarer Performance - und es war kein Limit in Sicht", erklärt Büdenbender. "Wir hätten gerne noch ausführlichere Tests gemacht, aber die Zeit reichte nicht mehr."

Größere Reserven als erwartet

"Die 8000 sind also eine weiche Support-Grenze, da ist noch Luft nach oben", resümiert Büdenbender. "Das zeigt auch: Die Microsoft-Cloud bietet ausreichend Reserven, damit lassen sich kritische Tier-1-Applikationen unter Dauerlast betreiben."

Beeindruckt war das IT-Team von der Leistungsfähigkeit des Scale-out File-Server. "Die Datei-Server-Technik erreichte nicht ihre Grenzen, obwohl die beiden Scale-out File-Server nur durch relativ langsame 8 GBit an den Storage angebunden waren."

Auch die Anbindung der Applikations-Server im Hyper-V-Cluster an das Storage-System überzeugte. "Das Server-Kommunikationsprotokoll SMB 3.0 funktionierte sehr gut, das Netzwerk lief ausreichend schnell", schildert Büdenbender.

Software Defined Storage ersetzt SAN

Die Ergebnisse des Tests waren so vielversprechend, dass das IT-Team einige Wochen danach einen Proof of Concept mit der neuen Storage-Architektur durchführte. Dabei konzipierte das IT-Team eine Hardware-Lösung, die Hyper-V-Hosts, Scale-out File-Server und ein JBOD mit Storage Spaces als Gesamtlösung in einem Rack betreibt.

Der Proof of Concept bestätigte die Ergebnisse des großen Tests. "Das wird eine unserer künftigen Storage-Technologien für die Virtualisierung werden", resümiert Büdenbender. (hal)