40- und 100-Gigabit-Ethernet

Netzwerk-Evolution: Bandbreite hat man nie genug

Kaum hat sich 10-Gigabit-Ethernet als Standard zur schnellen Vernetzung etabliert, da stehen die nächsten Evolutionsstufen vor der Tür: 40- und 100-Gigabit-Ethernet. Doch die neue Technik wirft noch einige Fragen auf.

Mit der Einführung von 10-Gigabit-Ethernet (10GbE) scheinen die Bandbreitenfragen im Enterprise endgültig beantwortet. Wer, außer Forschungseinrichtungen oder Highend-Computing-Rechenzentren, sollte diese Bandbreiten ausschöpfen? Entsprechend langsam und kontinuierlich wuchs der Marktanteil an verkauften 10GbE-Ports auf zuletzt weltweit drei Millionen Stück im Jahr 2010, so die Dell`Oro Group. Doch diese Zahlen dürften deutlich steigen, wenn Intels Sandy-Bridge-Server mit 10 GbE ausgeliefert werden.

Was direkt zu einem anderen Problem führt: Die Serverbandbreiten wollen im Backbone aggregiert werden. Des Weiteren führen RZ-Virtualisierung, Cloud Computing und die Konsolidierung von Daten- und Speichernetzen zu einem Anstieg des Bandbreitenbedarfs.

Und last, but not least sollte das Thema Video nicht vergessen werden: Egal, ob Videokonferenz oder -überwachung, für HD-Video über IP ist mit Bandbreiten von 50 bis zu 100 Mbit/s zu kalkulieren. Deshalb sieht D-Link-Manager Mike Lange folgenden Trend: "Zum Desktop wird 1 GbE Standard, und die Workgroup-Switches werden mit 10 GbE angeschlossen."

Aufrüsten oder bündeln?

Um diese Bandbreiten im Backbone zu bewältigen, hat der Anwender verschiedene Optionen. Mit Link Aggregation oder Trunking kann er mehrere Verbindungen zu einem logischen Kanal mit höherer Bandbreite bündeln. Oder er setzt auf einen der neuen Ethernet-Standards für 40- und 100-Gigabit-Ethernet, die mit ihren Unterstandards in der Gruppe IEEE 802.3ba, bg, bj in 2011 verabschiedet wurden.

Kurzfristig scheint aus Anwendersicht das Trunking die interessanteste Methode zu sein, um mehr Bandbreite ohne großen finanziellen Aufwand zu realisieren. Doch der Ansatz hat einige fundamentale Nachteile. So wird die Bandbreite der gebündelten Kanäle nicht optimal ausgenutzt. Bei beengten Platzverhältnissen fehlt eventuell der Raum, der erforderlich wäre, um mehrere Ports zu nutzen, und es sind Kühlungsschwierigkeiten zu erwarten, wenn viele Ports genutzt werden müssen.

Protokollfragen

Durch das Bundling ist dennoch die Anschaffung neuer Switches erforderlich, wenn die maximale Ausbaustufe mit 10 GbE erreicht ist. Erschwerend kommt hinzu, dass das Zusammenschalten zwar mit dem Link Aggregation Control Protocol (LACP) als IEEE-Standard 802.3ad definiert ist, darüber hinaus aber unzählige herstellerspezifische Verfahren existieren. Und diese sind alle mehr oder weniger proprietär.

Vor diesem Hintergrund scheint 40 GbE eine interessante Alternative zu sein, zumal heutige Chassis-Switches laut Enterasys-Technikspezialist Markus Nispel "genügend Performance pro Slot aufweisen, um für 40 GbE geeignet zu sein". Dennoch könnte 40 GbE die Anwender teuer kommen. Während einige Hersteller sowohl 40- als auch 100-GbE-Equipment anbieten wollen, überlegen andere, 40 GbE zu überspringen.

Argumente wie dieses, dass sich 100 GbE heute im Enterprise nicht rechne, weil die Optiken sowie die Chassis-Switches zu teuer seien, lässt Jörg Ruhmann, Technical Director bei Infinera, nicht gelten: "Die initialen Mehrkosten je Schnittstelle werden durch viele betriebliche Einsparungen und mehr Effizienz bei der Infrastruktur aufgewogen." Allerdings ist zu berücksichtigen, dass 100-GbE-Komponenten noch nicht zum Mainstream gehören.

Für den Anwender ist deshalb eventuell folgendes Vorgehen empfehlenswert: kurzfristige Engpässe, wo möglich, per Trunking stopfen und später auf 100 GbE migrieren, wenn das Equipment durch Skaleneffekte bezahlbar wird. (mje)

Dieser Artikel basiert auf einem Beitrag unserer Schwesterpublikation Computerwoche.