Netzwerke mit 100G

100 Gbit/s – die neue Dimension der Netzwerke

20.10.2009 von Daniel Prokop
Netzwerke mit 10 Gbit/s geraten stellenweise schon heute an ihre Kapazitätsgrenzen. Beim Sprung hin zu noch höheren Geschwindigkeiten gibt es einige technische und logistische Hürden. Doch schon 2010 sollen die ersten 100G-Netzwerke in Betrieb gehen.

Gerade im Finanzsektor gilt die Devise „Time is money“. An den Börsen rund um den Globus werden gewaltige Datenmengen verarbeitet, und bereits geringe Verzögerungen bei der Verarbeitung einer Aktion können sich erheblich auf den Preis auswirken. Oft entscheidet die Latenzzeit sogar darüber, ob überhaupt eine Transaktion stattfindet, denn den Zuschlag erhält der schnellste Bewerber.

Trotz der wirtschaftlich angespannten Zeiten investieren Banken und Börsen daher weiter in die Beschleunigung ihrer Netzwerkinfrastruktur, über die die finanziellen Transaktionen laufen. Aus diesen Gründen wird die größte Wertpapierbörse der Welt, die NYSE Euronext, bis 2010 ein 100G-Netzwerk in Betrieb nehmen. Darüber sollen täglich mehr als eine Milliarde Transaktionen mit mehreren PByte an Daten laufen. Es handelt sich dabei um den ersten kommerziellen Einsatz eines 100G-Netzwerks. Der Netzwerkspezialist Ciena wird die Kernkomponenten des neuen Hochgeschwindigkeitsnetzwerks stellen.

Doch nicht nur im Bankenwesen erfordern neue Dienste und stärkere Endgeräte immer mehr Ressourcen. Seit Jahren steigt die Nachfrage nach Bandbreite in immer neue Höhen. Diese Entwicklung ist nicht beschränkt auf Nischenindustrien, sondern betrifft alle Segmente, von Großunternehmen bis hin zu Privatnutzern. Eine Verlangsamung oder ein Ende des Datenverkehrwachstums ist nicht in Sicht. Laut einer Studie von Nemertes Research soll bereits 2012 die Bandbreitennachfrage nicht mehr gedeckt werden können, wenn nicht schon jetzt etwas gegen die drohenden Kapazitätsengpässe unternommen wird. Die aktuellen 10G-Netzwerke werden in naher Zukunft an vielen Stellen ausgedient haben.

Der Weg zu 100G-Standards

Der steigende Bedarf an höheren Kapazitäten führte Ende der 1990er zur Entwicklung eines Transport-Standards mit 40 Gbit/s. Im Jahr 2004 wurden dann erste Feldversuche mit IP-Routern mit 40 Gbit/s und Dense Wavelength Division Multiplexing (DWDM) gestartet. Doch auch 40 Gbit/s werden den Bandbreitenbedarf nicht lange decken. Zudem erscheint die Steigerung um den Faktor vier gegenüber den etablierten 10G-Standards nicht als echter Sprung. Daher favorisieren Händler, Industrieverbände und Netzbetreiber die bislang übliche Verzehnfachung auf 100 Gbit/s als Übertragungsrate künftiger Netzwerke. Die 100G-Technologie bietet demnach eine größere Skalierbarkeit und eine effizientere Konvergenz von optischen Datenraten.

Anforderungen an das PHY: 100 GbE soll selbst über 10 Meter Kupfer möglich sein.

Im Juli 2006 gründete die Arbeitsgruppe 802.3 des Institute of Electrical and Electronics Engineers (IEEE) als Antwort auf die steigende Nachfrage nach Bandbreite im Kommunikationsmarkt mit der High Speed Study Group (HSSG) eine Forschungsgruppe für Hochgeschwindigkeitsnetzwerke. Die Koalition aus Anbietern, Service- und Content-Providern sollte den Bedarf an Bandbreitenanschlüssen der nächsten Generation untersuchen. Im Juli 2007 erkannte die Gruppe die Forderung nach zwei Media-Access-Control (MAC)-Raten an: 40GbE für Server-to-Server- und Server-to-Switch-Applikationen sowie 100GbE für Switch-to-Switch-Applikationen, darunter auch Point-to-Point-Verbindungen zwischen Hochschulen.

Des Weiteren wurde folgenden Zielsetzungen zugestimmt:

Der lange Weg zum Standard: Bis IEEE oder ITU eine neue Übertragungstechnologie als Standard ratifiziert, dauert es etliche Jahre.

Zusätzlich untersucht die International Telecommunications Union (ITU) Study Group 15 (SG 15) die Voraussetzungen für Transportraten der nächsten Generation, jenseits von 40 Gbit/s. Im März 2007 stimmte die SG 15 einer Ausweitung des G.809-OTN-Standards zur nächsthöheren Rate jenseits der bestehenden 43 Gbit/s zu, die als OTU-4 definiert wurde. Zudem wurden Anträge für eine 3 x ODU-3 bei etwa 130 Gbit/s und eine Transportraten-Optimierung von 100GbE zu etwa 112 Gbit/s eingereicht.

Zusammenwachsen: Die Datenraten für Ethernet und die Transportnetzwerke gleichen sich immer mehr an.

Netzwerkanforderungen für 100-Gbit/s-Transport

Parallel zum Ausbau der Kapazität sind für die Netzwerkbetreiber die Reduktion der operativen Kosten sowie der Schutz bisheriger Investitionen entscheidende Ziele. Da die Einnahmen pro übertragenem Bit sehr gering sind, müssen auch die Verbindungen von anderen Hochgeschwindigkeitsnetzwerken wie etwa gemutiplexte 100 Gbit/s zu 100 Gigabit Ethernet (GbE) günstig ausfallen.

Übergänge: Gerade an den Übergängen von Netzwerken können immense Kosten entstehen, wenn die Übertragungsstandards nicht aufeinander abgestimmt sind.

Der Bau immer neuer Overlay-Netzwerke ist für Netzbetreiber bereits mittelfristig keine wirtschaftlich sinnvolle Option. Daher fügen sie ihren Netzwerken nahtlos und graduell Strecken mit 100 Gbit/s Kapazität hinzu. Das geschieht ohne einen Umbau des vorhandenen Netzwerks auf den Glasfaserleitungen, die bislang für 10 Gbit/s und 40 Gbit/s genutzt wurden.

Universelle Nutzung: 100-Gbit-Netzwerke bauen auf der bestehenden Infrastruktur auf.

Für die Durchsatzsteigerung muss die spektrale Effizienz, das Verhältnis zwischen der Übertragungsrate und der Bandbreite des Signals, erhöht werden. Nur so schafft man in vorhandenen Netzwerken mehr Kapazität: 100 Gbit/s muss als einzelne Wellenlänge statt aufgeteilt auf mehrere Kanäle (Invers-Multiplexing) mit je 10 oder 25 Gbit/s übertragen werden können.

Spektrale Effizienz: Mit steigender Bitrate steigt die spektrale Effizienz.

Invers-Multiplexing macht das Netzwerk komplexer, da es schwer ist, vier oder zehn benachbarte Wellen zu finden. Liegen die Wellengruppen nicht beieinander, gestalten sich Planung und Management sogar noch aufwendiger. Wenn eine Welle Bit-Fehler aufweist, werden Fehlersuche und -behebung ebenfalls schwieriger. Hinzu kommt, dass Invers-Multiplexing bei rein optischen Netzwerken wertvolle Reconfigurable-Add/Drop-Multiplexer (ROADM)-Ports aufbraucht, ohne Kapazitäten hinzuzufügen.

100-Gbit/s-Transport-Technologie

100-Gbit/s-Protokolle und optische Modulationstechniken zu definieren, die günstig über bestehende Leitungen laufen und dabei die Designregeln langsamerer Netzwerke beibehalten, ist kein leichtes Unterfangen. Für jede höhere DWDM-Bit-Rate (Dense Wavelength Division Multiplex) war bisher eine neue Technologie für den Datentransport über eine einzelne Wellenlänge nötig. Kritisch ist vor allem die chromatische Dispersion, die im Quadrat zur Bit-Rate zunimmt. Die Dispersionsprobleme führten zur Invers-Multiplex-Lösung, bei der ein 10-Gbit/s-Signal für die Übertragung in vier 2,5-Gbit/s-Signalen aufgeteilt wurde. Die Netzbetreiber lehnten diese Lösungen jedoch ab, da sie zwar anfänglich kostengünstiger sind, aber eine geringere Spektraleffizienz aufweisen. Zudem ist dieser Ansatz im Betrieb zu komplex und dadurch nicht praktikabel.

Mit der Weiterentwicklung der Netzwerktechnologie sanken die Netzwerkkosten pro Bit bei gleichzeitiger Zunahme der Bandbreite. Folgende Entwicklungen waren entscheidend für die Verbesserung der Übertragung:

Entwicklungsschritte: Mit jeder Stufe sinken die Kosten pro Bit (blaue Pfeile).

Für 100-Gbit/s-Netzwerke werden Polarization Multiplexing und weiterentwickelte Modulations-Formate zum Einsatz kommen, deren Designregeln denen der 10-Gbit/s-Systeme ähneln.

100 Gbit/s durch fortschrittliche Modulationsformate

Fortschrittliche Modulationsformate nehmen in 40- und 100-Gbit/s-Netzwerken eine Schlüsselrolle ein. Bei 10 Gbit/s und darunter wurden früher einfache digitale Kodierungen wie Non Return to Zero (NRZ) eingesetzt. Phase-Shaped Binary Transmission (duobinary) sowie Differential Phase Shift Keying (DPSK) sind Modulationsformate, die bei den 40-Gbit/s-Lösungen der ersten Generation zur Leistungssteigerung eingesetzt wurden und als Basis für 100 Gbit/s dienen. DPSK nutzt Phasenumtastung, was die Reichweite gegenüber der NRZ-Modulations-Modelle in etwa verdoppelt.

Modulation: Komplexe Modulationsverfahren erhöhen die Reichweite und den Datendurchsatz.

Wie die Grafik aufzeigt, werden die Daten auf eine Carrier-Welle gelegt und phasenverschoben, was in DPSK Output resultiert. DPSK bildet die Basis für Differential Quadrature Phase Shift Keying (DQPSK).

Für 100-Gbit/s-Signale splittet DQPSK den Stream in zwei Datenkanäle, die beide 50 Gbit/s entsprechen. Diese Datenrate ist um 25 Prozent höher als 40 Gbit/s, die Leistung dieser Modulation erlaubt jedoch die Übertragung auf Glasfaser mit 100 Gbit/s ohne bedeutende PMD-Beeinträchtigungen.

DQPSK-Modulation: Differential Quadrature Phase Shift Keying erhöht die Datenrate nochmals.

Durch Polarization Multiplexing für DQPSK (PM-RQPSK) kann die Leistung eines 40-Gbit/s- oder 100-Gbit/s-Signals für beeinträchtigte Glasfaserverbindungen gesteigert werden. Die DQPSK-modulierte Welle wird in die entsprechenden Polarisationen aufgesplittet, wodurch eine effektive Symbolrate von 25 Gbit/s bei 100-Gbit/s-Signalen erzielt wird, was besser ist als bei den derzeitigen 40-Gbit/s-DPSK-Systemen.

Polarisation: Eine Aufteilung in zwei senkrecht zueinanderstehende Polarisationen kann die Anforderung an die Glasfaser senken.

Obwohl die PMD bei dieser Rate etwa zweieinhalbmal so groß ist wie bei 10 Gbit/s, können viele der Glasfasern, die seit Mitte der 1990er auf Langstrecken verlegt wurden, diese Symbolrate für 40G tragen, bei geringerer Reichweite auch für 100G. Die chromatische Dispersion nimmt im Quadrat zur Bitrate zu und erfordert Dispersions-Kompensation, wie bei derzeitigen 40-Gbit/s-Systemen. PMD-Kompensation würde nur bei durch PMD beeinträchtigen Leitungen nötig.

Die Leistung bei 100 Gb/s kann durch den Einsatz eines Coherent Receivers zum PM-DQPSK weiter verbessert werden, bekannt als PM-QPSK mit Coherent Receiver. Das PM-QPSK-Modulationsformat ist das gleiche wie PM-DQPSK aufseiten des Transmitters. Der Hauptunterschied bei PM-QPSK liegt beim Receiver. Statt eines Differential Detection Circuit wird der Coherent Receiver eingesetzt, wo das eintreffende Signal mit einem lokalen Oszillator verbunden ist und erkannt wird. Coherent Receiver haben eine höhere Empfindlichkeit und machen Dispersions-Kompensation überflüssig, benötigen jedoch die Entwicklung von ASICs, die das digitale Signal verarbeiten. Daher werden die ersten Umsetzungen von 100G wahrscheinlich PM-DQPSK mit Dispersions-Kompensation sein, mit begrenzter Reichweite über eine bestehende 10G-Infrastruktur. Doch diese Lösung bietet einen wichtigen Grundstein für PM-QPSK mit Coherent Receiver, was marktführende Hersteller als bestes Modulationsformat für 100-Gbit/s-Signale ansehen, da es hohe Leistung bietet und ohne Dispersions-Kompensation auskommt.

Fazit

100 Gbit/s ist aus heutiger Sicht die Zukunft des Netzwerks. Die Einführung des 100G-Netzwerks beim Börsenbetreiber NYSE Euronext ist richtungsweisend für einen Sektor, in dem Branchen wie das Bankwesen oder die Forschung schon immer Wegbereiter für Netzwerktechnologie der neuesten Generation waren.

Inhalte und Dienste fast ohne Verzögerungen liefern zu können ist hier kein Luxus, sondern ein entscheidender Erfolgsfaktor. Die Bandbreitengrenzen im Backbone-Netzwerk großer Netzwerke schränken die Einführung neuer, schneller Dienste ein. Die Aggregation von 10GbE auf IP-Routern sowie die Grenzen der Fasernetze machen 100-Gbit/s-Ports auf DWDM-Anlagen und 100GbE-Ports für Switch-to-Switch-Verbindungen notwendig. (ala)