Software Defined Storage reift heran

Praxistest: Storage-Architektur von Microsoft ersetzt SAN

03.11.2014 von Michael Kallus
Die Virtualisierung erfordert meist klassische SAN-Speichernetze, die teuer sind. Microsoft bietet eine Software-basierte Storage-Architektur als Alternative an. Die GAD, ein Spezialist für Banken-IT, hat die Microsoft-Lösung intensiv getestet und klärt auf, ob damit ein SAN ersetzbar ist.

Mit der Virtualisierung steigt die Nachfrage nach SANs (Storage Area Network), weil die fortgeschrittenen Funktionen es erfordern, die virtuellen Maschinen zentral zu speichern. Allerdings sind die Kosten solcher Speichersysteme eine wesentliche Hürde auf dem Weg zur Private Cloud.

NAS- und SAN-Leistungsfähigkeit ohne teure Speicher-Arrays - das verspricht Microsoft mit einer Reihe neuer Storage-Funktionen aus Windows Server 2012. Diese reichen von den Storage Spaces über die Cluster Shared Volumes bis hin zur neuen Version 3.0 des Server-Kommunikationsprotokolls SMB (Server Message Block).

Vernetzt: In seinem Mega-Cluster-Test hat die GAD erstmals den Scale-out-File-Server in die Speicherarchitektur eingebunden und das Übertragungsprotokoll SMB 3.0 genutzt.
Foto: GAD

Ein wichtiger Baustein ist dabei der Scale-out-File-Server (SOFS). Microsoft positioniert ihn als Speicher für Applikationsdaten, besonders für VM-Images und SQL-Datenbanken. Kombiniert man den Scale-out File-Server mit den neuen Storage-Funktionen, so lässt sich eine SAN-ähnliche Architektur schaffen, die Einsatzgebiete abdeckt, die bislang SANs vorbehalten waren. Die Speichervirtualisierung wird damit direkt im Betriebssystem verankert.

Der große Vorteil der Lösung liegt darin, dass sich diese Speichersysteme relativ preiswert mit Standardhardware und -netzwerken realisieren lassen. Statt der teuren SANs kann ein JBOD-System (Just a Bunch of Disks) eingebunden werden, und im Bereich Netzwerk genügen einfache Switche statt Komponenten für das Unternehmensnetz. Dennoch unterstützt dieser Software-Defined Storage alle wesentlichen Funktionen von Hyper-V.

Wie reif diese Architektur ist und ob sie tatsächlich an die Funktionen eines SAN heranreicht, das hat die GAD nun in zwei Umgebungen ausgiebig getestet und ein Hardwarekonzept dazu entwickelt. Die GAD eG ist Spezialist für Banken-IT und betreibt nach eigenen Angaben eines der sichersten Rechenzentren Europas. Hier sind auf 450 Hyper-V-Hosts rund 4000 virtuelle Maschinen in Betrieb - bis Mitte 2015 sollen es 7000 sein.

Test einer Microsoft-Cloud im Mega-Cluster

Der erste Test kam durch einen Zufall zustande: Für ein großes Projekt hatte die GAD im Frühsommer 2014 64 Blade-Server angeschafft, die bereits drei Wochen vor ihrem Einsatz zur Verfügung standen. Das IT-Team beschloss daher, für den anstehenden Lasttest einen Hyper-V-Cluster mit 64 Knoten und 8.000 virtuellen Maschinen aufzubauen.

"Wir wollten die Microsoft-Cloud testen und ihre Support-Grenzen überschreiten", erzählt Thomas Büdenbender, Systems Engineer bei der GAD. Büdenbender und sein IT-Team haben bereits einiges Know-how bezüglich Windows Server 2012 und Hyper-V aufgebaut, da die GAD als Technical-Adoption-Partner von Microsoft die Versionen in einer frühen Phase testet und dabei auch an der Entwicklung neuer Funktionen beteiligt ist.

Der Test zeigte einmal, dass sich der Hyper-V-Cluster auch mit 8000 virtuellen Maschinen problemlos managen ließ. "Am Ende umfasste der Cluster fast 12.000 virtuelle Maschinen, und sein Limit war noch nicht erreicht", berichtet Büdenbender.

Der kostenlose Microsoft Hyper-V-Server 2012 R2 in der Praxis -
Hyper-V Server 2012 R2
Die Einrichtung von Hyper-V Server 2012 R2 nehmen Sie über das textbasierte Tool sconfig vor. Dieses steht auch auf Core-Servern zur Verfügung.
Hyper-V Server 2012 R2
In Sconfig lassen sich alle grundlegenden Einstellungen bequem über Assistenten vornehmen. Danach verwalten Sie den Server mit dem Hyper-V-Manager oder SCVMM 2012 R2 von anderen Servern aus.
Hyper-V Server 2012 R2
Hyper-V Server 2012 R2 integriert sich nahtlos in den Server-Manager von Windows Server 2012 R2 aus. Dieser steht auch für Windows 8.1 zur Verfügung.
Hyper-V Server 2012 R2
Virtuelle Switches verbinden die virtuellen Server mit den Netzwerkkarten des Hosts. Diese Funktion steht auch in Hyper-V Server 2012 R2 zur Verfügung.
Hyper-V Server 2012 R2
Während der Erstellung eines virtuellen Computers können Sie auch in Hyper-V Server 2012 R2 die Generation auswählen.
Hyper-V Server 2012 R2
Hyper-V Server 2012 R2 binden Sie auch an System Center Virtual Machine Manager 2012 R2 an. So können Sie den Server noch besser verwalten.
Hyper-V Server 2012 R2
Virtuelle Server erstellen Sie in SCVMM über einen Assistenten, ähnlich wie im Hyper-V-Manager.
Hyper-V Server 2012 R2
Mit einem Patch können Sie Veeam Backup 7 fit für Hyper-V Server 2012 R2 machen.
Veeam Backup kann virtuelle Server in Windows Server 2012 R2 und Hyper-V Server 2012 R2 sichern
Veeam Backup kann virtuelle Server in Windows Server 2012 R2 und Hyper-V Server 2012 R2 sichern.

Shared Storage für 12.000 virtuelle Maschinen

Bei diesem Test setzte das IT-Team erstmals einige der neuen Storage-Funktionen ein. "Windows Server 2012 R2 bietet mit dem Scale-out File-Server und dem Serverprotokoll SMB 3.0 erstmals die Möglichkeit, Dateiserver als Shared Storage für Hyper-V-Cluster einzusetzen", erörtert Büdenbender. "Anlässlich des Cloud-Tests wollten wir sehen, ob die neue Dateiservertechnik so hohe Lastanforderungen verkraftet."

Daher wurden zwei Dell PowerEdge R720 mit 384 GByte RAM und zwei CPUs mit acht Cores in die Testarchitektur gesetzt. Die beiden dienten als Scale-out File-Server und sollten den Shared Storage für das Hyper-V-Cluster bereitstellen. Für die Anbindung an das Cluster waren die Dell-Server mit je zweimal 10-GBit-Netzwerk ausgestattet.

Bei diesem Lasttest musste das IT-Team noch auf ein klassisches SAN zurückgreifen, da es über kein geeignetes JBOD-System verfügte. Daher wurden die beiden Dell-Server über je zweimal 8 GBit Fibre Channel an ein SAN angebunden, das 491 Festplatten und 145 TByte Kapazität bereitstellte.

Bei den Tests in dem Cluster mit zunächst 8000 und dann 12.000 virtuellen Maschinen konnte die Storage-Architektur mithalten. "Es war beeindruckend, wie performant der Scale-out File-Server ist", berichtet Büdenbender. "Wir haben 200 virtuelle Maschinen zwischen den Knoten hin- und hergeschwenkt. Die Dateiservertechnik erreichte nicht ihre Grenzen, obwohl die beiden Scale-out File-Server über Fibre-Channel-Verbindungen mit nur 8 GBit an den Storage angebunden waren."

Netzwerk verkraftet Boot-Storm mit 8000 Maschinen

Ein weiterer Blick galt dem Netzwerk. Die Anbindung der Applikationsserver im Hyper-V-Cluster erfolgte nicht über iSCSI oder Fibre Channel, sondern über SMB 3.0. "Das Serverkommunikationsprotokoll funktionierte sehr gut, das Netzwerk lief ausreichend schnell", schildert Büdenbender. "Es verarbeitete sogar einen Boot-Storm, bei dem wir alle 8000 virtuellen Maschinen des Cluster gleichzeitig heruntergefahren und wieder gestartet haben."

Die Ergebnisse des Tests waren so vielversprechend, dass das IT-Team beschloss, die neue Storage-Architektur intensiv in einem Proof of Concept zu testen. Nun sollte statt eines SAN wie im ersten Test ein JBOD mit Storage Spaces zum Einsatz kommen. Ziel war, eine schnelle und performante Speicherumgebung zu schaffen und dabei die Kosten möglichst gering zu halten.

Im Visier: Quantensprung im Storage-Netzwerk

Dabei orientierte sich das Team um Büdenbender am Building-Block-Gedanken: "Wir wollten Hyper-V-Hosts, Scale Out File Server und das JBOD mit Storage Spaces in einer Lösung vereinen und das Ganze in einem Rack aufbauen."

Der Clou dabei: "Liegen die Server für die Hyper-V-Hosts und für den Scale-out File-Server sowie das JBOD nahe beieinander, können wir sie dank SMB 3.0 über RDMA-fähige Switche mit 40 GBit verkabeln", erläutert Büdenbender. "Das ermöglicht uns einen Quantensprung im Netzwerk. Bislang mussten wir für den Storage in unser Unternehmensnetz, und da stehen uns Switche mit 10 GBit zur Verfügung, was auch schon schnell ist." Dank der kurzen Wege kann die Storage-Lösung also ihre Stärke auch im Netzwerk ausspielen.

Im Rack: Im Proof of Concept vereinte die GAD Hyper-V-Hosts, Scale-out File-Server und JBOD in einem Rack und konnte so RDAM-fähige Switche mit 40 GBit zur Verkabelung nutzen.
Foto: GAD

Für den Proof of Concept holte das IT-Team Dell ins Boot, das bei der Auswahl der Hardware beriet. Ebenso begleitete ein auf Virtualisierung spezialisierter Techniker von Microsoft den Test.

Das Client-System bestand aus acht Knoten, auf denen vorwiegend 40 virtuelle Maschinen liefen. Auf einzelnen Konten waren auch mehrere 100 virtuelle Maschinen in Betrieb, um die Grenzen der Architektur auszuloten. Das produktive Hyper-V-Cluster wurde über zweimal 40-GBit-Netzwerk an ein Cluster aus zwei Scale-out File-Server angebunden. Für diese wurden zwei Dell PowerEdge R720 herangezogen.

Ausfallsicherheit auf hohem Niveau

Jeder der beiden Scale-out File-Server erhielt über SAS (Serial Attached SCSI) jeweils zwei Anbindungen an alle drei eingesetzten JBODs. So konnte das IT-Team das Storage-System als drei-Wege-Spiegel konfigurieren, um eine hohe Ausfallsicherheit zu gewährleisten. In jedem JBOD arbeiteten zwölf SSDs mit 200 GByte und 48 HDDs mit 3 TByte - die Laufwerke sind so verteilt, wie es Microsoft empfiehlt.

Diese Laufwerke fasste das IT-Team mittels Storage Spaces zu zwei gleich großen Pools zusammen, die die virtuellen Disks für den Scale-out File-Server bereitstellen. Die Konfiguration und die gesamte Verwaltung der Storage Spaces erfolgen also in Windows Server 2012 R2.

Das ganze System - die produktiven Server und die Storage-Lösung - passt mehrfach in ein Standard-Rack mit 42 Höheneinheiten hinein: Die JBODs messen vier Höheneinheiten, die Scale-out File-Server drei und der Hyper-V-Host zwei. Zunächst wurde das Storage-System eine Woche bei Dell in Frankfurt getestet, danach weitere vier Wochen im Rechenzentrum der GAD in Münster.

Was bewirkt das Software-Defined Datacenter? -
Hans Schramm, Field Product Manager Enterprise, Dell
"Es ist sicherlich unumstritten, dass Software heute eine tragende Rolle bei allen Storage-Themen spielt, das wird sich zukünftig weiter verstärken."
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Die Storage-Hardware besteht bei EMC schon heute fast ausschließlich aus Commodity Komponenten. Selbst die High-End Speichersysteme wie EMC VMAX oder Scale-Out-NAS Islilon Systeme bestehen mit wenigen Ausnahmen vollständig aus Commodity Komponenten."
Robert Guzek, Senior Alliance Manager CE FTS CE ISS Market Operations, Fujitsu Technology Solutions
"Nur wenn die Hardware selbst über eine gewisse Intelligenz verfügt, ist sie in der Lage, unmittelbar zu reagieren und die erwünschten kurzen Antwortzeiten zu liefern. Die Hardware muss in Zukunft deshalb eher an Intelligenz gewinnen, sie muss sich selbst besser verwalten und sich flexibler an die Geschäftsprozesse und betrieblichen Anforderungen anpassen können."
Thomas Meier, Chief Technologist Storage, Hewlett-Packard
"Das Software Defined Data Center ist bei HP bereits Realität: Die Cloud-Management-Lösung Cloud Service Automation, das offene Cloud-Betriebssystem Cloud OS sowie Lösungen für Software Defined Networking und Software Defined Storage sind bereits Bestandteil von HPs Portfolio für das Rechenzentrum der Zukunft.“
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Hardware wird im professionellen Umfeld auf absehbare Zeit mehr sein als bloße Commodity. Das gilt für 2014 und auch noch darüber hinaus."
Michael Achtelik, Storage Business Leader DACH, IBM Deutschland
"Bei der Umsetzung der Konzepte rund um den Begriff Software Defined Data Center engagiert sich IBM sehr stark. IBM verfolgt hier einen eher noch umfassenderen Ansatz als SDDC und hat hierzu den Begriff Software Defined Environments (SDE) geprägt.“
Johannes Wagmüller, Director Systems Engineering, NetApp
"Commodity-Hardware mag für Betreiber wie Amazon AWS und Google eine Option darstellen, da sie mit eigenen Entwicklungsabteilungen für Integration und Qualitätssicherung sorgen. Im Enterprise- und KMU-Markt, wo diese mächtigen Entwicklungs-Ressourcen nicht zur Verfügung stehen, wird weiterhin auf die Betriebssicherheit von Enterprise Speichersystemen Wert gelegt werden."
Vincenzo Matteo, Disk Product Management Director, Oracle
"Wir halten Software Defined Storage aufgrund der verdeckten Kosten für kein wirklich vorteilhaftes Konzept. Weil alle Integrations-, Prüfungs- und Wartungsaufgaben für das System vollständig auf den Anwender übergehen, erhöht sich der Aufwand in diesen Bereichen signifikant, die Ausgaben steigen deshalb gleichermaßen."

Schnelles Netzwerk - der Storage hält mit

Der Proof of Concept bestätigte die Ergebnisse des ersten Tests. "Die ganze Konstruktion läuft schon sauber. Mit Scale-out File-Server hatten wir keine Probleme, und auch die 40-GBit-Technik lieferte überzeugende Performance-Raten, obwohl sie sehr neu ist", berichtet Büdenbender. "Wir benötigen derzeit in unserem Rechenzentrum rund 20 Minuten, um einen Hyper-V-Knoten mit 40 virtuellen Maschinen von einem Host auf den anderen zu verschieben. Mit der neuen Technik reichten 1:13 Minuten."

Das schnellste Netzwerk nutzt aber wenig, wenn das Storage-System nicht mithält. "Im Test stand dem Scale-out File-Server immer ein ausreichend schneller Speicher in Form der Storage Spaces zur Verfügung. Das liegt an den neuen Storage-Funktionen in Windows Server 2012 R2", ergänzt Büdenbender.

Die Funktion Tiered Storage beispielsweise analysiert regelmäßig die virtuellen Datenträger und verlagert oft genutzte Daten auf die SSDs, und Daten, die selten benutzt werden, auf die HDDs. Das geschieht standardmäßig nachts um ein Uhr per Task Scheduler. Somit stellen die HDDs ausreichend Speicherplatz zur Verfügung, und die SSDs sorgen dafür, dass der Pool ausreichend Performance bekommt.

Der Building Block senkt die Komplexität

Mit dieser Architektur sinkt auch die Komplexität im Rechenzentrum, so Büdenbender: "Betreiben wir eine Virtualisierungseinheit als Building Block, müssen wir uns für die Bereitstellung weder mit den Netzwerk- und Firewall- noch mit den Storage-Kollegen abstimmen. Davon versprechen wir uns einiges."

Ein billiger Jakob ist diese Architektur allerdings noch nicht. In den JBODs stecken zwölf Server-SSDs, die für Schreibzugriffe optimiert sind. Allein eine SSD kostete 2500 Euro - mal 36 Stück. "Dennoch agieren wir mit der Microsoft-Technologie in einem ganz anderen Preissegment als mit unserem High-End-SAN. Wir erhalten hier sehr schnellen Storage zu günstigen Preisen und werden auch im Netzwerkbereich immens einsparen", resümiert Büdenbender. "Nach heutigem Stand kann man ab 500 virtuelle Maschinen über so eine Architektur nachdenken."

Ab 2015 bereit für den Einsatz

Zuvor muss Microsoft jedoch nach an einigen Punkten nachbessern, so Büdenbender: Bei den Storage Spaces gibt es noch Probleme, wenn einzelne Platten oder ein komplettes JBOD ausfallen. Diese Probleme sind Microsoft schon bekannt. Büdenbender rechnet damit, dass sie bis Ende des Jahres mit den nächsten Fix-Packs behoben sein werden.

Offene Punkte gibt es auch beim Monitoring. "Man muss sich noch überlegen, wie die ganze Konstruktion, also das Zusammenspiel von Hyper-V-Host, Switches, Scale-out File-Server bis hin zu den JBODs, sinnvoll zu überwachen ist", erörtert Büdenbender. Beispielsweise sind die Platten in den JBODs noch nicht 100-prozentig erfasst. Dell will hier in den kommenden Monaten ein Management-Pack für System Center Operations Manager liefern.

Virtueller Storage für die Zukunft

"Wenn alles so gut weiterläuft, können wir wohl Anfang kommenden Jahres beginnen, das System produktiv einzusetzen", berichtet Büdenbender. Zunächst will er die Testsysteme umrüsten und dann nach und nach in die produktive Umgebung gehen. "Das wird in jedem Fall eine unserer künftigen Storage-Technologien für die Virtualisierung werden", resümiert Büdenbender. "Ich bin sicher: Wenn wir von Virtualisierung sprechen, sprechen wir künftig auch vom Scale-out File-Server und vom entsprechenden Storage dahinter." (cvi)