CERN testet IBM-Virtualisierungs-Software erfolgreich
Wenn der extrem große Teilchenbeschleuniger "Large Hadron Collider" des CERN, die europäische Organisation für Teilchenforschung, voraussichtlich 2007 in Betrieb geht, wird dies zu einer neuen Dimension moderner Storage-Infrastruktur führen. So werden beispielsweise extrem große Datenmengen erzeugt, voraussichtlich bis zu 15 PByte pro Jahr – das entspricht annähernd 3,2 Millionen DVDs. Alleine das so genannte "Alice-Experiment" dürfte Datenraten von 1,25 GByte/s liefern.
Derzeit testet CERN, welche Storage-Infrastruktur hierfür notwendig ist. In einem internen Leistungstest erreichte jetzt beispielsweise die IBM-Speichervirtualisierungs-Software TotalStorage SAN File System extrem hohe Leistungswerte, wie IBM mitteilte. Die internen Lasttests ergaben bei CERN eine Schreib-Lese-Rate auf Platte von über 1 GByte/s bei einer gesamten Eingabe-/Ausgabe-Datenmenge von über 1 PByte in einer 13-Tage-Periode.
Dieses Ergebnis zeige laut Big Blue, dass die Virtualisierungslösung die Fähigkeit habe, die erwarteten Anforderungen aus dem "datenintensivsten" Experiment der Welt abzudecken. Der durchgeführte Test umfasste für die IBM-Software das Schreiben und Lesen von über 300.000 Dateien, jeweils 2 GByte groß, in den von ihr verwalteten Speicher. Die Speicher-Hardware bestand aus 15 iSCSI-Targets.
Eingesetzt wurden laut IBM zwölf IBM-File-System-Schreib-Clients und zwölf Lese-Clients, mit vier Lese-Threads und entweder vier oder sechs Schreib-Threads pro Client. Alle Clients und der iSCSI-Speicher waren mit einem 1-Gbit-Ethernet-Netzwerk verbunden. Signifikantes Ziel des Tests sei es gewesen, die IBM-Virtualisierungslösung unter einer Reihe von Fehlerszenarien zu testen. Dabei wurden beispielsweise die iSCSI-Targets abgetrennt, um die Robustheit der Lösung und der Performance der Datenmanagement-Lösung zu bestätigen.
Die IT- und Storage-Infrastruktur des CERN gelten als das derzeit weltweit größte wissenschaftliche Computing-Grid. (speicherguide.de/cvi)