Software Defined Storage reift heran

Praxistest: Storage-Architektur von Microsoft ersetzt SAN

Netzwerk verkraftet Boot-Storm mit 8000 Maschinen

Ein weiterer Blick galt dem Netzwerk. Die Anbindung der Applikationsserver im Hyper-V-Cluster erfolgte nicht über iSCSI oder Fibre Channel, sondern über SMB 3.0. "Das Serverkommunikationsprotokoll funktionierte sehr gut, das Netzwerk lief ausreichend schnell", schildert Büdenbender. "Es verarbeitete sogar einen Boot-Storm, bei dem wir alle 8000 virtuellen Maschinen des Cluster gleichzeitig heruntergefahren und wieder gestartet haben."

Die Ergebnisse des Tests waren so vielversprechend, dass das IT-Team beschloss, die neue Storage-Architektur intensiv in einem Proof of Concept zu testen. Nun sollte statt eines SAN wie im ersten Test ein JBOD mit Storage Spaces zum Einsatz kommen. Ziel war, eine schnelle und performante Speicherumgebung zu schaffen und dabei die Kosten möglichst gering zu halten.

Im Visier: Quantensprung im Storage-Netzwerk

Dabei orientierte sich das Team um Büdenbender am Building-Block-Gedanken: "Wir wollten Hyper-V-Hosts, Scale Out File Server und das JBOD mit Storage Spaces in einer Lösung vereinen und das Ganze in einem Rack aufbauen."

Der Clou dabei: "Liegen die Server für die Hyper-V-Hosts und für den Scale-out File-Server sowie das JBOD nahe beieinander, können wir sie dank SMB 3.0 über RDMA-fähige Switche mit 40 GBit verkabeln", erläutert Büdenbender. "Das ermöglicht uns einen Quantensprung im Netzwerk. Bislang mussten wir für den Storage in unser Unternehmensnetz, und da stehen uns Switche mit 10 GBit zur Verfügung, was auch schon schnell ist." Dank der kurzen Wege kann die Storage-Lösung also ihre Stärke auch im Netzwerk ausspielen.

Im Rack: Im Proof of Concept vereinte die GAD Hyper-V-Hosts, Scale-out File-Server und JBOD in einem Rack und konnte so RDAM-fähige Switche mit 40 GBit zur Verkabelung nutzen.
Im Rack: Im Proof of Concept vereinte die GAD Hyper-V-Hosts, Scale-out File-Server und JBOD in einem Rack und konnte so RDAM-fähige Switche mit 40 GBit zur Verkabelung nutzen.
Foto: GAD

Für den Proof of Concept holte das IT-Team Dell ins Boot, das bei der Auswahl der Hardware beriet. Ebenso begleitete ein auf Virtualisierung spezialisierter Techniker von Microsoft den Test.

Das Client-System bestand aus acht Knoten, auf denen vorwiegend 40 virtuelle Maschinen liefen. Auf einzelnen Konten waren auch mehrere 100 virtuelle Maschinen in Betrieb, um die Grenzen der Architektur auszuloten. Das produktive Hyper-V-Cluster wurde über zweimal 40-GBit-Netzwerk an ein Cluster aus zwei Scale-out File-Server angebunden. Für diese wurden zwei Dell PowerEdge R720 herangezogen.

Ausfallsicherheit auf hohem Niveau

Jeder der beiden Scale-out File-Server erhielt über SAS (Serial Attached SCSI) jeweils zwei Anbindungen an alle drei eingesetzten JBODs. So konnte das IT-Team das Storage-System als drei-Wege-Spiegel konfigurieren, um eine hohe Ausfallsicherheit zu gewährleisten. In jedem JBOD arbeiteten zwölf SSDs mit 200 GByte und 48 HDDs mit 3 TByte - die Laufwerke sind so verteilt, wie es Microsoft empfiehlt.

Diese Laufwerke fasste das IT-Team mittels Storage Spaces zu zwei gleich großen Pools zusammen, die die virtuellen Disks für den Scale-out File-Server bereitstellen. Die Konfiguration und die gesamte Verwaltung der Storage Spaces erfolgen also in Windows Server 2012 R2.

Das ganze System - die produktiven Server und die Storage-Lösung - passt mehrfach in ein Standard-Rack mit 42 Höheneinheiten hinein: Die JBODs messen vier Höheneinheiten, die Scale-out File-Server drei und der Hyper-V-Host zwei. Zunächst wurde das Storage-System eine Woche bei Dell in Frankfurt getestet, danach weitere vier Wochen im Rechenzentrum der GAD in Münster.