Von 10 GBit/s bis 100 GBit/s

Ratgeber: Wann lohnt sich welches Gigabit-Ethernet?

24.08.2012 von Bernd  Reder
Durch Virtualisierung ist Netzwerkbandbreite gefragt. Daher ist 10 Gbit/s Ethernet fast schon ein Muss. Doch mit 40 und 100 Gigabit Ethernet stehen die Nachfolger bereits in den Startlöchern. Für IT-Verantwortliche heißt das: Sie müssen jetzt den Umbau der "alten" Netzwerkstruktur in Angriff nehmen.

Der 10-Gigabit-Ethernet-Standard IEEE 802.3ae (IEEE: Institute of Electrical and Electronics Engineers) wurde bereits 2002 verabschiedet. Mittlerweile hat er sich in vielen Data-Center-Backbone-Netzen als Standardtechnik etabliert. Das gilt jedoch nach Angaben der Netzwerkfirma Netgear nicht für kleinere und mittelständische Unternehmen. Viele Mittelständler stehen vor der Herausforderung, ihre Netzwerk-Infrastruktur zunächst einmal von 1-Gbit/s auf 10-Gigabit umzustellen, bevor sie die Migration zu 40-Gigabit-Ethernet (40 GbE) oder gar 100 GbE ins Auge fassen.

Für eine solche Migration sprechen nach Erfahrungswerten von Intel, das mehrere Rechenzentren auf 10 GbE umstellt, folgende Gründe:

Reduzierung der Komplexität durch den Einsatz von Virtualisierung: Dies ermöglicht es, weniger physische Server und Switches einzusetzen und gleichzeitig die Zahl der Systeme (Virtual Machines) zu erhöhen. Dadurch steigt jedoch der Bedarf an Bandbreite, und zwar nicht nur seitens der - virtualisierten - Server, sondern auch der Switches und Storage-Systeme.

Niedrigere Kosten: Nach Erfahrungswerten von Intel lassen sich mithilfe einer 10-GbE-Fabric die Netzwerkkosten einer virtualisierten Umgebung um 18 bis 25 Prozent senken. Das ist auf die einfachere LAN- und Verkabelungsinfrastruktur der Technologie zurückzuführen. Außerdem benötigen virtualisierte Systeme weniger Platz und Kühlung.

Höherer Datendurchsatz: 10-Gigabit-Links bieten mehr Bandbreite bei reduzierten Latenzzeiten im Netz. Nach Schätzungen von Intel beträgt die Latenz bei 1-Gigabit-Ethernet bis zu 12 ms und bei 10 GbE zwischen 2 und 4 ms.

Die passende Verkabelung für 10 GbE

Bei der Wahl der Kabelinfrastruktur für 10-Gigabit-Ethernet hat der Anwender eine ganze Reihe von Alternativen. Sollen oder müssen innerhalb des Rechenzentrums oder an einem Unternehmensstandort größere Distanzen zwischen 300 Metern und mehreren Kilometern überbrückt werden, sind Multi- oder Single-Mode-Lichtwellenleiter angesagt.

Einsparungen: Durch die Migration 1-Gigabit-Ethernet zu 10 GbE lässt sich unter anderen die Zahl der LAN-Ports deutlich reduzieren. Auch die Kabelinfrastruktur wird einfacher und um bis zu 40 Prozent kostengünstiger.
Foto: Intel

Unshielded-Twisted-Pair-Kabel der Kategorie 6 (10GBase-T) sind für die Kopplung von Racks über Entfernungen von maximal 50 Metern vorgesehen. Die Cat-6A-Variante, die 2008 freigegeben wurde, unterstützt 100 Meter. Cat 7 Shielded Twisted Pair ist dank der Schirmung unempfindlicher gegen Störungen Die Version 7a ist sogar bis 1000 MHz spezifiziert und kann Datenraten von mehr al 10 GBit/s "verkraften". Im Gegensatz zu Kabeln der Kategorie 5 und 6 sind bei Cat-7-Verkabelungen alle vier Adernpaare einzeln geschirmt. Die Reichweite beträgt 100 Meter.

Zudem existiert mit 10GBase-CX ein Standard für Kupferkabel mit vier Adernpaaren für Distanzen von 15 Metern. Allerdings hängt die Reichweite, ebenso wie bei Zweidrahtleitungen, stark von der Qualität des Kabels beziehungsweise vom Hersteller ab. Es ist laut Fluke Networks daher anzuraten, im Vorfeld Tests mit Kabeln und Steckverbindern unterschiedlicher Hersteller durchzuführen und die gesamte Kabelinstallation nach Abschluss der Montage durchmessen und zertifizieren zu lassen.

Vielfältig: Für 10-Gigabit-Ethernet steht eine Vielzahl von Kabeltypen und Steckverbindungen zur Verfügung. Damit lassen sich Verbindungen von bis zu 40 Kilometer Länge aufbauen, etwa um Systeme auf einem Campus zu verknüpfen.
Foto: R&M

Bei Glasfaserkabeln für 10 GbE sind die gebräuchlichsten Versionen 10GBase-LX4-Multimode- oder -Singlemode-Glasfasern mit einer Wellenlänge von 1310 nm. Die Reichweite beträgt 300 Meter beziehungsweise 2 Kilometer. Die 10GBase-SR-Multimode-Glasfaser mit einer Wellenlänge von 850 Nanometern überbrückt bis zu 300 Meter. Für Backplane-Links sind 10GBase-KX4 und -KR vorgesehen, während die Versionen 10GBase-LR und ER mit 10 beziehungsweise 40 Kilometern Reichweite nicht für Rechenzentren in Betracht kommen, sondern zur Kopplung von Standorten oder für einen größeren Campus.

Alternative: SFP+ mit Direct Attach

Bei den Anschlussarten bietet sich der Einsatz von Small Form Factor Pluggable + (SFP+) in Verbindung mit 10-Gbit/s-SFP+-Kupfer-Direct-Attach-Kabeln (DAC) an. Der Anwender kann damit Kupferkabel und Lichtwellenleiter nutzen, Stichwort höhere Flexibilität. Die Nachteil sind jedoch die kurze Reichweite von 7 Metern und der relativ hohe Preis, bedingt durch die optischen Komponenten.

Hauptdarsteller: Laut Intel wird sich 10GBase-T bei 10-Gigabit-Ethernet - neben Direct Attach (DC) - zur dominierenden Kabel- und Verbindungstechnik entwickeln.
Foto: Intel

Dennoch erfreut sich DAC nach Aussage von Intel unter den Anschlusstechniken für 10 GbE großer Beliebtheit. Allerdings wird sich 10GBase-T in den kommenden Jahren zur dominierenden Technik entwickeln. 10GBase-CX und Glasfaserverbindungen verlieren dagegen an Boden.

End-of-Row versus Top-of-Rack

In einem Rechenzentrum, im dem Virtualisierung eingesetzt wird, gibt es laut dem Netzwerkspezialisten Fluke grundsätzlich zwei Topologien, um Server und Netzwerkkomponenten anzubinden: "End of Row" (EoR) und "Top of Rack" (ToR). Nach Angaben der Experten hat die konventionelle Topologie mit einem 1-Gbit/s-Lin pro Sever den Nachteil, dass sie nur schwer im Nachhinein geändert werden kann. Bei einer EoR-Struktur sind Switch Fabric und physikalische Verbindungen voneinander getrennt. Die virtualisierten Server sind in diesem Fall über 1- oder 10-Gigabit-Links mit dem Switch verbunden, dieser wiederum über 10 GbE mit einem Aggregation Rack.

Gut zu wissen: Eine Alternative zu End-of-Row-Konfigurationen ist ein Top-of-Rack-Konzept. Dabei wird jedem Rack ein Switch zugeordnet.
Foto: Fluke

Bei einer Top-of-Rack-Konfiguration wird ein Switch auf jedem Rack platziert. Dieser ToR-Switch verbindet alle Element im Rack und stellt über 10 GbE - oder künftig auch 40- oder 100 GbE - eine Verbindung zu einem Aggregation Rack her. Laut Fluke haben beide Ansätze spezielle Vorteile. ToR ist flexibler in Bezug auf Änderungen, modularer und benötigt eine weniger strukturierte Verkabelung. EoR kommt mit weniger Switches und sogenannten Trunk-Connections aus, ist einfacher zu managen und erfordert weniger Änderungen an einer vorhandenen Infrastruktur.

Der nächste Evolutionsschritt: 40- und 100-Gigabit-Ethernet

Mit 40-Gigabit-Ethernet respektive IEEE 802.3ba steht seit 2010 der Nachfolger von 10 GbE bereit. Das IEEE ist bei 40 GbE davon abgekommen, Ethernet in Zehnerschritten weiterzuentwickeln, also von 1-Gbit/s über 10-Gbit/s zu 100-Gbit/s. Dies resultiert daraus, dass zunächst keine passenden Steckverbindungen für Datenraten von 100-Gbit/s zur Verfügung standen. Erste Switches für 40 GbE stehen seit der zweiten Jahreshälfte 2010 zur Verfügung.

Vorausschauend: Der Bedarf an 40 GbE und 100 GbE wird laut Cisco unter anderem durch den starken Anstieg der I/O-Datenraten im Access-Layer wachsen. Allerdings sind derzeit nur wenige Switches im Einsatz, die 40 GbE unterstützen.
Foto: Cisco

Nach Marktdaten von Cisco Systems sind derzeit noch relativ wenige 40 GbE-Switches im Einsatz. Ab 2017 werden dann solche Systeme 10-Gigabit-Switches übertrumpfen, und im Jahr 2018 sind 40-Gbit/s-Systeme Stand der Technik, während 10 GbE-Switches weitgehend von der Bildfläche verschwunden sein werden.

Grund für diese langsame Einführung der 40-GbE-Technologie dürfte primär der Preis sein. So ist es heute in der Regel günstiger mehrere parallele 10-GbE-Strecken aufzubauen als auf eine 40-GbE-Verbindung zu setzen. Das gleiche gilt auch für Unternehmen die sich überlegen von 40 auf 100 GbE zu migrieren.

Keine Änderungen am Netzwerkdesign

Die gute Nachricht ist, dass Ethernet mit 40-Gbit/s keine Änderungen an den höheren Ebenen des Netzwerks erfordert, also an den Netzwerkprotokollen und Anwendungen. Das bedeutet beispielsweise, dass das Rapid Spanning Tree Protocol (RSTP) zur Kopplung von Switches und Routern oder das Open-Shortest-Path-First-Protokoll (OSPF) zwischen Routern auch im Zusammenspiel mit 40- oder 100-Gigabit-Ethernet-Interfaces eingesetzt werden kann. Anwendungen, Server und Storage-Systeme profitieren vielmehr von den im Vergleich zu GbE- oder 10 GbE niedrigeren Latenzzeiten.

Technische Details: die Spezifikationen und maximalen Distanzen für 40 GbE und 100 GbE
Foto: R&M

Anders sieht es jedoch auf der physikalischen Ebene aus. Sowohl 40 GbE als auch die Ethernet-Variante mit 100 Gbit/s erfordern nicht nur neue Switches und Router, sondern auch eine neue Verkabelung und die entsprechenden Schnittstellen (Steckverbindungen). Für den Anwender bedeutet dies, dass er spätestens mit Einführung von 40 GbE und später 100 GbE die Netzwerkinfrastruktur erneuern muss, dass in der Anfangsphase noch mit horrenden Kosten verbunden ist.

Mehr Lanes verwendet

Ein Grund dafür ist, dass bei 40/100 GbE mehr optische Übertragungskanäle (Lanes) verwendet werden als bei 10 GbE. Bei der 40-Gigabit-Version sind es vier Kanäle mit jeweils 10 Gbit/s, bei 100 GbE analog dazu zehn Kanäle. Dagegen verwendet 10-Gigabit-Ethernet zwei Kanäle - einen für das Senden und einen für das Empfangen von Daten. Allerdings ist nicht ganz ausgeschlossen, dass auch für 40- und 100-Gigabit-Ethernet künftig Single-Lane-Technologien entwickelt werden. Stand heute sind jedoch entsprechende Komponenten nicht verfügbar, und damit muss der Anwender eine neue Kupfer- oder Glasfaserverkabelung installieren.

Verkabelung für 10-Gigabit-Ethernet sowie 40- und 100 GbE: In Rechenzentren, in denen 40 GbE oder später 100 GbE eingesetzt werden soll, sind Multimode-Lichtwellenleiter der Kategorien OM3 und OM4 erste Wahl.
Foto: Cisco

Im Gegensatz zu 10 GbE mit seinen zwei Glasfasern verwendet 40 GbE zwölf "Fibres": jeweils vier für das Senden und das Empfangen von Daten; vier weitere Lanes beziehungsweise Fasern zwischen beiden Gruppen bleiben ungenutzt. Bei 100 GbE müssen die Lichtwellenleitern 14 Glasfasern bereitstellen: zehn für jede Übertragungsrichtung, während zwei weitere Paare ungenutzt bleiben.

Sowohl 40 GbE als auch 100 GbE erfordern Lichtwellenleiter der Kategorien OM3 (100 Meter Reichweite) oder OM4 (125 Meter). Beide Typen sind laseroptimierte Kabeltypen, die bereits für 10-Gigabit-Ethernet empfohlen wurden und in solchen Netzen eingesetzt werden. Bei der Planung der Verkabelungsinfrastruktur muss sich der Netzplaner heute entscheiden, ob er OM3- oder OM4-LWL einsetzt, die entweder "nur" für 40-Gbit/s oder auch für 100-GBit/s ausgelegt sind. Denn wie erwähnt, weisen die entsprechenden LWL-Versionen unterschiedliche Zahlen von Lanes auf. Im Zweifelsfall werden die Kosten der entscheidende Faktor sein. Wer größeren Wert auf langfristige Zukunftssicherheit legt, wird jedoch eine Verkabelung bevorzugen, die bereits für 100 GbE ausgelegt ist.

QSFP+-Transceiver für 40 GbE

Als Transceiver kommt bei 40-Gigabit-Ethernet in der Regel ein QSFP+-Modell zum Zuge (Quad Small Form Factor Pluggable Plus). Es unterstützt sowohl Kupfer- als auch Glasfaserkabel. Die aktuellen Modelle sind derzeit allerdings nur für 40 GbE ausgelegt. Es sind jedoch Versionen in Vorbereitung, die auch eine 100-GbE-Verkabelung unterstützen.

Wer bereits jetzt auf 100-Gigabit-Ethernet setzen möchte, ist auf CFP-Transceiver (C Form Factor Pluggable) angewiesen. Sie lassen sich in Verbindung mit einer Single-Mode-Verkabelung mit 24 Fasern einsetzen, sind aber auch für Multimode-Glasfaser- und -Kupferkabel erhältlich. Als Alternative forcieren etliche Hersteller CXP-Transceiver. Sie benötigen 3 bis 5 Watt Strom, etwa ein Drittel so viel wie CFP-Modelle. Zudem sind CXP-Steckverbindungen nach Herstellerangaben bis um den Faktor 17 kostengünstiger, wenn die Montagearbeiten vor Ort beim Anwender mit einberechnet werden.

Kupfer für kurze Distanzen

Bei 40 GbE über Kupferkabel sind derzeit QSFP+-Steckverbinder die erste Wahl. Typische Top-of-Rack-Switches sind häufig mit 48 SFP+-Anschlüssen für 10-Gigabit-Ethernet-Verbindungen zu Servern ausgestattet. Hinzu kommen vier QSFP+-Ports für 40-Gbit/s für die Switch-zu-Switch-Verbindungen. Die Möglichkeit, zwischen 10- und 40-Gbit/s umzuschalten, und zwar zwischen Kupfer- und LWL-Kabeln, kann durchaus sinnvoll sein. Dies erleichtert die Migration von 10 GbE zu 40 GbE.

Aus diesem Grund sind etliche Top-of-Rack-Switches mit QSFP+-Ports ausgerüstet, die sich zusätzlich auch als vier 10-Gigabit/s-Interfaces konfigurieren lassen. Das setzt allerdings voraus, dass ein spezielles Glasfaserkabel verwendet wird, das an der einen Seite mit einem QSFP+-Steckverbinder ausgestattet ist und auf der anderen mit vier SFP+-Schnittstellen. Der Anwender hat dann die Option, auf 40 GbE umzustellen, wenn er dies für richtig hält. Bei den DAC-Kabeln zur Verbindung von Servern und Switches über kurze Entfernungen unterstützen die QSFP+-Versionen normalerweise Distanzen von maximal drei Metern. Das ist relativ wenig und dürfte in vielen Fällen nicht ausreichen. Dann bleibt nur der Griff zu Glasfaserkabeln.

Multi-Fibre Push-on als Alternative zu QSFP+

Als Alternative zu QSFP+ bietet sich die "Multi-Fibre-Push-on"-Technik (MPO) mit Mehrfaser-Steckverbindungen an. Nach Angaben des Verkabelungsspezialisten R&M gewinnt MPO in Rechenzentren an Boden - auch deshalb, weil die Kabel vorkonfektioniert angeliefert werden und daher schnell zu montieren sind. Schon mit wenigen Basiskomponenten wie vorkonfektionierten Kassetten, Racks und Trunk-Kabeln lässt sich nach Angaben des Herstellers eine Infrastruktur für 40- oder 100-Gigabit-Ethernet aufbauen.

Weitere Optionen: Einige Hersteller forcieren die Einführung Multi-Fibre-Push-on-Steckverbindungen (MPO) mit parallelen optischen Verbindungen als Alternative zu QSFP+.
Foto: R&M

MPO-Steckverbinder haben den Vorteil, dass sich auf kleinem Raum 12 oder 24 LWL-Fasern kontaktieren können. Allerdings stellen die parallelen optischen Verbindungen erhöhte Anforderungen an die Planung, Administration und Produktevaluation. So müssen für jeden Link beziehungsweise Channel die Signalrichtung respektive Polaritäten und die Zuordnung der einzelnen Fasern exakt definiert werden. Eine Verbesserung in diesem Punkt bringt die Mechanical-Transfer-Push-On-Technik (MPT) der amerikanischen Firma US Conec. Sie hat eine spezielle Verbindungstechnik entwickelt, die eine einfachere und robustere Positionierung der Fasern an der Steckverbindung erlaubt.

Warum die Zertifizierung einer Datenverkabelung wichtig ist

Zum Abschluss noch ein Tipp: Eine Ethernet-Infrastruktur für Datenraten von 10-Gbit/s und höher sollte in jedem Fall von Experten durchgemessen und zertifiziert werden. Dies können die Fachleute des Unternehmens vornehmen, das die Infrastruktur installiert. Zwar kostet das Durchmessen und die Zertifizierung der Verkabelung Geld, doch gibt es nach den Erfahrungen von Netzwerk-experten handfeste Gründe, die dafür sprechen:

Zertifizieren ist preisgünstiger als eine Reparatur: Laut einer Studie der Contigency Planning Group kostet der Ausfall eines Firmennetzes je nach Größe und Branche zwischen 14.500 Dollar und 6,5 Millionen Dollar pro Stunde. Gartner kommt auf durchschnittlich 42.000 Dollar pro Stunde. In 20 Prozent der Fälle ist für eine solche "Downtime" die Netzwerkinfrastruktur verantwortlich. Die Abnahme des Netzes, inklusive der Verkabelung, kostet bei 600 Cat-6-Kupferleitungen dagegen nur 750 Dollar, in Europa etwa denselben Betrag in Euro.

Produktgarantie ist nicht alles: Etliche Nutzer vertrauen auf die Produktgarantie des Herstellers der Verkabelungskomponenten. Das ist riskant. Denn dieser kann - zu Recht - ins Feld führen, dass der Installateur maßgeblich für die Qualität der Verkabelung verantwortlich ist. Ein Durchmessen der Verkabelung nach Abschluss der Installation deckt auf, ob der Installateur sauber gearbeitet hat und ob die Infrastruktur wie gewünscht funktioniert.

Überprüfung auf Leistungsreserven: Ein Check der Verkabelung macht transparent, ob sich diese auch für höhere Datenraten eignet. Tests von Fluke haben beispielsweise ergeben, dass ein Großteil der Cat-6-Kupferverkabelung, die eigentlich nur für 1-Gbit/s ausgelegt war, auch die Anforderungen von 10GBase-T erfüllt und somit 10-GBit/s über kürzere Distanzen unterstützt. In einem Serverraum reicht das unter Umständen aus, ohne dass die Kupferkabel durch Lichtwellenleiter ersetzt werden müssen. Das senkt die Kosten, auch deshalb, weil keine Kabel entsorgt werden müssen.

Sicherheit für den Käufer: Ein aktueller Trend ist, Verkabelungssysteme (Cat 5, 6 und 6A) von preisgünstigen No-Name-Herstellern zu beziehen. Tests in den USA haben ergeben, dass bis zu 40 Prozent dieser Kabel nicht den angegebenen Spezifikationen entsprechen oder erhebliche Qualitätsmängel aufweisen. Wer dennoch auf solche Kabel statt auf die teureren Produkte von Markenherstellern setzen will, sollte unbedingt prüfen lassen, ob die Verkabelungssysteme den Standards entsprechen. Das kann im Nachhinein nicht nur Geld sondern auch viel Ärger sparen.

Fazit

Netzwerkverwalter, die "High-Speed-Ethernet" mit 10, 40 oder 100 GBit/s implementieren wollen, müssen in den meisten Fällen die vorhandene Netzwerkinfrastruktur drastisch umbauen. Meist steht eine neue Verkabelung an; in vielen Fällen reicht auch die vorhandene Netzwerkanalyse- und Network-Monitoring-Ausrüstung nicht mehr für die höheren Datenraten aus. Gleiches gilt für IT-Sicherheitssysteme wie Gateways und Firewalls: Auch sie müssen in der Lage sein, die höheren Datenraten zu verarbeiten.

Was Netzwerkanalysatoren betrifft, sollte der Anwender die Anschaffung von hardwaregestützten Systemen (Appliances) mit großen Massenspeichern (Festplatten) von mehreren TByte Kapazität in Betracht ziehen. Denn bereits bei 40-Gbit/s muss ein solches Gerät an die 300 GByte Daten pro Minute erfassen, speichern und auswerten - und das pro Netzwerk-Port.

Geradezu üppig ist die Zahl der diversen Optionen, die 40 GbE und 100 GbE dem IT-Fachmann auf der Verbindungsebene zur Verfügung stehen: unterschiedliche Typen von Kabelarten und Steckverbindern für die Überbrückung - fast - aller Distanzen, von 3 Metern bis hin zu 40 Kilometern. Für Rechenzentren und kleine Campus-Netze dürften die Versionen für Distanzen von 125 Metern ausreichend sein. Auch in puncto Kosten sind solche Lösungen eine gute Wahl.

Wer mehrere Standorte miteinander verbinden möchte, etwa aus Gründen der Ausfallsicherheit, ist auf die 40- und 100-Gigabit-Ethernet-Varianten mit Reichweiten von 10 oder 40 Kilometern angewiesen - mit den entsprechend höheren Kosten für Single-Mode-Glasfaserleitungen und die entsprechenden Steckverbindungen.

Auf jeden fall sollte vor der Migration auf höhere Bandbreiten eine ausführliche Kostenanalyse durchgeführt werden. So kann es unter Umständen günstiger sein mehrere parallele Datenleitungen mit alter Technologie zu legen statt sofort auf die noch sehr teure neue Netzwerktechnologie zu setzen. (hal)