Auf dem Sprung ins Data Center

Seit Mitte vergangenen Jahres "steht" der 10-Gigabit-Ethernet-Standard. Nun muss die neue Technik in der Praxis zeigen, was sie kann. Das interessanteste Einsatzgebiet ist derzeit das Rechenzentrum.

Von: Bernd Reder

Nachdem im vergangenen Juni der Standard verabschiedet wurde, kommen nun immer mehr Produkte für 10-Gigabit-Ethernet (10GE) auf den Markt: Switches oder Fabric-Module, aber auch die ersten Netzwerkadapter. Die Preise sind allerdings noch recht hoch. Sie bewegen sich zwischen 17 000 bis 80 000 Dollar pro Port. Allerdings wirken auch bei 10GE bereits die Kräfte des Marktes, sprich die Anbieter haben damit begonnen, die Preise für ihre Komponenten zu reduzieren.

Doch nicht alleine die Kosten entscheiden darüber, ob 10-Gi-gabit-Ethernet ein Erfolg wird, sondern der Nutzen, den die Technik dem Anwender bringt. Derzeit zeichnet sich ab, dass 10GE nicht, wie vielfach vermutet, zuerst in Citynetzen, sondern in Serverräumen und Rechenzentren zum Zuge kommen wird. Der Grund ist, dass Unternehmen immer mehr Hochleistungsserver einsetzen, deren Prozessoren mit Taktfrequenzen von 3 GHz und mehr arbeiten und die mit 1-Gigabit-Ethernet-Adaptern bestückt sind. Sie lassen sich mittels 10GE zu Clustern zusammenfassen.

Intel, das im März mit dem "Pro/10GbE LR" als erster Anbieter einen 10GE-Serveradapter vorgestellt hat, erwartet zudem, dass die Anwender dazu übergehen, im Data Center statt vieler Rechner nur noch wenige Hochleistungsmaschinen einzusetzen, die über eine 10-GBit/s-Anbindung verfügen. Ein Vorteil dieses Ansatzes ist nach Angaben der Beratungsgesellschaft IDC, dass sich eine solche konsolidierte Serverinfrastruktur einfacher verwalten lässt und somit Kosten spart. IDC schätzt, dass die Managementkosten nur ein Siebtel so hoch sind wie in einem Data Center mit vielen Rechnern.

Speziell im Zusammenspiel mit Servern kommen noch weitere Eigenschaften von 10-GE-Netzen zum Tragen. Eine ist die "TCP/IP-Offload-Engine"-Technik (TOE). Sie entlastet die Prozessoren und I/O-Subsysteme von Servern, Switches und Speichersystemen, indem sie einen Teil des Protokoll-Handlings auf die Netzwerkadapter verlagert. Ergänzt wird TOE durch Remote Direct Memory Access (RDMA). Mithilfe dieses Verfahrens kann ein Rechner über den Netzwerkadapter Daten direkt in den Arbeitsspeicher eines anderen Systems übermitteln, ohne dass diese zuvor in das Kernel Memory des Servers übertragen werden.

Die Grundlage dieses Direkttransfers bildet ein Übertragungsprotokoll, das in der Hardware der Adapterkarte implementiert wird. Netze, die auf dem Infiniband-Standard und der "Virtual Interface Architecture" aufsetzen, unterstützen RDMA bereits. Eine Version für TCP/IP und Schnittstellenkarten, die mit Prozessoren für die Protokoll-Verarbeitung bestückt sind, ist derzeit in Entwicklung.

Ebenfalls in Richtung Server zielt ein weiteres Einsatzfeld von 10-Gigabit-Ethernet, so genannte "Fabric Interconnects". Dies sind Netze von extrem kleiner Reichweite, etwa 20 Metern, die Server oder Speichersysteme miteinander verbinden. Neben einer hohen Bandbreite sind hier niedrige Reaktionszeiten (Latency) gefordert. Derzeit kommen nach Angaben von Intel bei solchen "Server Area Networks" häufig proprietäre Clustering-Techniken zum Einsatz, beispielsweise Myranet, Wulfkit, Quadrics oder auch Infiniband.

Abgesehen davon, dass diese Verfahren - mit Ausnahme von Infiniband - nicht standardisiert sind, haben sie den Nachteil, dass entsprechende Serveradapter und Switches wegen der geringen Stückzahlen relativ teuer sind. Ein weiterer Kostenfaktor ist, dass sich die IT-Spezialisten eines Unternehmens mithilfe spezieller Schulungen mit diesen Techniken vertraut machen müssen.