Ethernet im Überblick

22.05.2002 von Prof. Dr. Axel Sikora
Ethernet ist aus lokalen Netzwerken nicht mehr wegzudenken. Obwohl bereits fast 30 Jahre alt, ist die Entwicklung dieser Technik nicht aufzuhalten. Wir beleuchten die Funktionsweise und die LAN-Zukunft in Richtung 10-GBit-Ethernet.

Ende 1972 implementierte Dr. Robert Metcalfe mit seinen Kollegen am Xerox Palo Alto Research Center (PARC) ein Netzwerk, um einige Xerox-Alto-Rechner zu vernetzen - einen zu dieser Zeit revolutionären Vorläufer der Personal Computer. Zunächst als Alto Aloha Network bezeichnet, setzte dieses Netzwerk bereits das CSMA/CD-Protokoll des späteren Ethernet ein. Die Übertragungsfrequenz lag jedoch zunächst nur bei 2,94 MHz, dem Systemtakt der Alto-Stations. Erst 1976 nannte Metcalfe das Netzwerk Ethernet.

Seitdem erfreut sich das Ethernet - nicht zuletzt wegen seiner Einfachheit hinsichtlich Installation, Wartung und Kosten - großer Beliebtheit bei den Netzwerkadministratoren. Trotz aller Entwicklungen, die es seit der ersten Schemazeichnung durchlaufen hat, basiert Ethernet immer noch auf denselben Prinzipien.

CSMA/CD als Grundlage von Ethernet

Das Ethernet-Protokoll basiert auf den Komponenten Multiple Access, Carrier Sense und Collision Detection:

Multiple Access (MA): Alle Ethernet-Stationen greifen unabhängig voneinander auf das gemeinsame Übertragungsmedium (shared medium) zu.

Carrier Sense (CS): Wenn eine Ethernet-Station senden will, so prüft sie zuerst, ob gerade eine andere Kommunikation läuft. Ist das Medium besetzt, so wartet die Station bis zum Ende der Übertragung und eine zusätzliche Zeitspanne von 9,6µs. Ist das Medium frei, so beginnt die Station sofort zu senden.

Collision Detection (CD): Während des Sendens beobachtet die sendende Station das Medium, um mögliche Kollisionen mit anderen Sendestationen zu erkennen. Wenn sie während des Sendevorganges keine Störung erkennt, die auf eine Kollision mit einem anderen Paket zurückgeführt werden kann, gilt das Paket als erfolgreich versendet.

Wenn die Sendestation eine Kollision erkennt:

Dieses Verfahren funktioniert aber nur dann zuverlässig, wenn die sendende Station die Kollision entdecken kann, bevor die Übertragung des Paketes abgeschlossen ist. Dabei ist zu berücksichtigen, dass die Ausbreitung von Signalen auf Leitungen mit endlichen Geschwindigkeit geschieht. Für einen erfolgreichen Einsatz des CSMA/CD-Protokolls muss die doppelte maximale Laufzeit zwischen zwei Stationen kürzer sein als die Übertragungsdauer der kürzesten zulässigen Pakete. Ausgehend von der Tatsache, dass die minimale Paketlänge eines Ethernet-Pakets 64 Byte (= 512 Bits) beträgt, muss also sichergestellt sein, dass die maximale Signallaufzeit (Round Trip Delay - RTD) 512 "Bitzeiten" nicht übersteigt. Bei einer Datenrate von 10 MBps dauert die Übertragung eines Bit 100 ns, so dass das RTD kleiner als 51,2 µs sein muss.

Erlaubte Verzögerungszeiten

Gemäß den Ethernet-Vorgaben dürfen die verschiedenen aktiven und passiven Komponenten Verzögerungszeiten verursachen. Die folgenden Tabellen zeigen Beispiele:

10 MBit/s

Komponente

Bit-Zeit

1 Bit-Zeit = 100ns

Controller Senderichtung

3

Controller Empfangsrichtung

7

Transceiver-Kabel (2m)

0,25

Transceiver Senderichtung

3

Transceiver Empfangsrichtung

5

Repeater

8

Inter-Repeater Link

25

100 MBit/s

Komponente

Bit-Zeit

1 Bit-Zeit = 10ns

Class I Repeater

140

Class II Repeater

92

Endgerät

50

Cat3-Twisted Pair (1m)

1,14

Cat5-Twisted Pair (1m)

1,112

Glasfaserkabel (1m)

1

1000 MBit/s

Komponente

Bit-Zeit

1 Bit-Zeit = 1ns

Repeater

976

Endgerät

432

Cat5-Twisted Pair (1m)

11,12

Glasfaserkabel (1m)

10,1

1000BaseCX-Kabel (1m)

10,1

Späte Kollisionen

Um zu bestimmen, ob eine Verbindung zwischen zwei Stationen den RTD-Bedingungen genügt, sind die Bitzeiten aller beteiligten Komponenten zu addieren. Die Summe darf nicht größer sein als die minimale Paketlänge in Bit (512). Ist diese Bedingung nicht erfüllt und treten Kollisionen erst nach den 512 Bitzeiten auf, spricht man von so genannten Late Collisions. Diese können von den Ethernet-Controllern nicht erkannt werden, weil sie das Paket vermeintlich schon komplett gesendet haben, bevor die Störung auf dem Medium erkannt wurde.

Dennoch wird das Netzwerk im Allgemeinen funktionieren, da die Protokolle der höheren Schichten diese verlorenen Pakete meist erneut anfordern, wie dies beispielsweise bei TCP der Fall ist. Wenn beim nächsten Sendeversuch keine Kollision mit der zu weit entfernten Station auftritt, kann das Paket doch noch erfolgreich übertragen werden. Allerdings wird die Leistungsfähigkeit des Netzwerks wesentlich beeinträchtigt, da immer mehr Bandbreite für Retransmissionen von Datenpaketen genutzt wird.

Das Paketformat

Beim Ethernet handelt es sich um ein so genanntes paketvermittelndes Netzwerk. Dies bedeutet, dass die zu übertragenen Daten in kleinere Einheiten aufgeteilt werden, die man als Pakete (Packets) oder Rahmen (Frames) bezeichnet. Dabei sucht sich jedes Paket autonom seinen Weg durch das Netzwerk. Auf der Empfängerseite werden die einzelnen Teilsendungen wieder zusammengefügt.

Ethernet-Paket

Komponente

Bytes

Anmerkungen

Präambel

7

101010...101010, dient der Taktsynchronisation

Rahmenbegrenzer

1

10101011

Ab hier eigentliches Datenpaket und Kollisionserkennung

Zieladresse

6

MAC-Adresse

Quelladresse

6

MAC-Adresse

Datenlänge

2

Daten

0 - 1500

Padding

0 - 46

Enthält genug Bytes, damit das Datenpaket 64 Byte lang wird.

Prüfsumme

4

Anhand der Prüfsumme kann der Empfänger erkennen, ob das Paket korrekt angekommen ist.

Das ursprüngliche Ethernet ist ein logischer Bus, auch dann, wenn es physisch nicht als Bus implementiert ist. Dies bedeutet, dass eine sendende Netzwerkstation von allen Netzwerkteilnehmern gehört wird. Der Ethernet-Controller der Empfangsstation entscheidet auf Grund der Zieladresse, welche Nachrichten für ihn bestimmt sind. Alle anderen Nachrichten werden ignoriert.

MAC-Adressen

Um sicherzustellen, dass keine identischen Adressen in einem Netzwerk auftreten, werden die Ethernet-Adressen (auch als MAC-Adressen bezeichnet) von den Herstellern fest in der Hardware kodiert. Die Verteilung erfolgt dabei nach dem folgenden Schlüssel:

MAC-Adresse

Bits

Anmerkungen

47

1, wenn es sich bei der Zieladresse um eine Gruppenadresse für Multi- oder Broadcasts handelt. Sonst 0.

46

0, wenn es sich um eine global verwaltete Adresse handelt (nach IEEE). 1, wenn es sich um eine lokal verwaltete Adresse handelt (für private Netze)

45 - 24

Hersteller-Identifikation. Wird durch die IEEE vergeben.

23 - 0

Adapter-Identifikation. Wird durch den Hersteller vergeben.

Die meisten Ethernet-Controller können auch Pakete empfangen und an die höheren Schichten weitergeben, die nicht für sie bestimmt sind. Man bezeichnet diese Betriebsart als "Promiscuous Mode". Dieser Modus stellt ein wesentliches Sicherheitsrisiko dar, da er die Realisierung von so genannten Netzwerk-Sniffern erlaubt, die den gesamten Verkehr auf einem Netzwerk beobachten können.

Vom Koax-Bus zum Twisted-Pair-Stern

Ursprünglich sah die Ethernet-Spezifikation Koaxialkabel als Übertragungsmedium vor. Je nach Qualität der Kabel werden dabei Thick Coax (10Base-5) und Thin Coax (10Base-2) unterschieden. Letzteres wird auf Grund der geringen Kosten auch als Cheapernet bezeichnet. Bei der Nutzung eines Koaxialkabels sind drei Punkte hervorzuheben:

Koaxialkabel weisen jedoch eine Reihe von Nachteilen auf. So müssen beispielsweise für den Einbau weiterer Stationen Kabel aufgetrennt werden, wodurch für eine gewisse Zeit keine Übertragung möglich ist. Deshalb wurde der Standard 1990 im Rahmen des 10Base-T für den Einsatz von Twisted-Pair-Kabeln erweitert.

Twisted-Pair

Die Nutzung von Twisted-Pair-Kabeln stellt in einigen wichtigen Punkten eine Abkehr von den ursprünglichen Mechanismen dar:

Glasfaser für das Backbone

Nachteilig an der Übertragung sowohl über Koaxialkabel als auch über Twisted-Pair-Kabel ist die limitierte Reichweite. Beim Twisted-Pair-Kabel ist das elektrische Signal nach etwa 100 m so weit abgeschwächt, dass es durch einen Repeater wieder aufgefrischt werden muss. Bei den Koaxialkabeln sind Reichweiten von 500 m bei 100Base-5 (die Zahl 5 entspricht 500 m) und von 185 m bei 10Base-2 (die Zahl 2 steht für ein aufgerundetes 1,85) erreichbar. Je mehr Repeater jedoch eingesetzt werden, desto größer werden die Verzögerungszeiten und es kommt zu späten Kollisionen.

Dementsprechend eignen sich Kupferkabel nicht für den Einsatz als Backbone zur Verbindung verschiedener Gebäude auf einem Campus. Aus diesem Grund wurden zwei weitere Standards aufgenommen, die die Übertragung von optischen Signalen über Glasfaserverbindungen beschreiben. Auf diese Weise lässt sich ohne Repeater eine Entfernung von 2 km überbrücken. Von den insgesamt drei verabschiedeten Standards hat sich in der Praxis nur der 10Base-FL durchgesetzt. Dabei ist auch wieder zu vergegenwärtigen, dass Glasfaserleitungen sinnvoll nur in Punkt-zu-Punkt-Verbindungen eingesetzt werden können. Auch 10Base-FL steht also für eine Sternstruktur.

Der Schritt zu 100 MBit/s

Mit dem Einsatz von immer leistungsfähigeren Arbeitsplatzrechnern stieg der Bedarf nach Bandbreite in den neunziger Jahren zusehends. Aus diesem Grund wurde 1995 der auch als Fast Ethernet bezeichnete Standard 100Base-T mit einer Datenrate von 100 MBit/s verabschiedet. Folgende Aspekte verdienen hier besondere Beachtung:

100Base-Tx

Die Annahme, dass über eine Cat-5-Verkabelung mit einer 100 MHz Grenzfrequenz automatisch eine Datenrate von 100 MBit/s übertragen werden kann, ist falsch. Folgende Besonderheiten sind hier zu beachten:

Beim Empfang der Signale muss sich der Empfänger auf den Datenstrom synchronisieren. Lange Phasen identischer Signale sind bei der Übertragung im Basisband problematisch, weil keine Signalflanken auftreten, mit deren Hilfe der Sender sich wieder neu synchronisieren könnte. Dieses Problem wurde bei den 10 MBit/s-Standards durch die Manchester-Kodierung umgangen. In der ersten Phase wird das Datenbit gesendet, wobei ein Flankenwechsel eine logische 1 bedeutet. Die zweite Phase sorgt für die Taktung, indem auf jeden Fall ein Flankenwechsel stattfindet, wodurch sichergestellt wird, dass in jeder Phase mindestens ein Pegelwechsel vorliegt. Als Nachteil muss jedoch eine Verdoppelung der Frequenz in Kauf genommen werden.

Da die Frequenzverdoppelung für 100 MBit/s nicht mehr in Frage kommt, kodiert man den Bitstrom in einem 4B5B-Muster. Dabei werden die Muster so gewählt, dass innerhalb jedes 4 beziehungsweise 5 Bit langen Blocks mindestens ein Signalwechsel auftritt. Somit wird der Bitstrom lediglich um 25 Prozent verlängert und es ergibt sich eine Datenrate von 125 MBit/s.

Da eine Frequenz von 125 MHz größer ist als eine Frequenz von 100 MHz, wird das Signal auf drei Signalpegeln übertragen (MLT-3: Multi-Level Transmission mit -1, 0 und 1). Somit lassen sich mehrere Bits pro Symbol übertragen und die Übertragungsfrequenz reduzieren.

Die Basisfrequenz der Idle-Bitfolge reduziert sich hierdurch von 125 MHz auf ein Viertel und liegt nun bei 31,25 MHz. Durch ein Verwürfeln des kodierten Datenstroms (Scrambling) muss nun noch eine Aufteilung des Frequenzspektrums erfolgen. Damit sollen das Leistungsspektrum der abgestrahlten Signale aufgespreizt und die Vorgaben über elektromagnetische Verträglichkeit erfüllt werden.

100Base-T4 und 100Base-T2

Der 100Base-Tx-Standard ist dahingehend verschwenderisch, dass er nur zwei der vier in einem Twisted-Pair-Kabel vorhandenen Leitungspaare nutzt. Auf diese Weise wird auch ISDN-Telefonie über das gleiche Kabel ermöglicht. Da diese Praxis jedoch nur selten anzutreffen ist, schlägt der 100Base-T4-Standard vor, alle vier Leitungspaare zu verwenden. Dabei läuft der Datenstrom über drei Leitungspaare, wodurch sich die Signalrate auf 33 MHz reduziert. Das vierte Leitungspaar wird zur Kollisionsdetektierung eingesetzt. Eine weitere Reduktion der Signalrate wird beim 100Base-T4 wiederum durch Kodierungsverfahren erreicht. Bei 100Base-T4 kann die Übertragung zu einem Zeitpunkt nur in eine Richtung erfolgen. Ein Vollduplex-Betrieb ist nicht möglich.

100Base-T2

Auch der 100Base-T2-Standard beschreibt ein Verfahren, um die 100 MBit/s des Fast Ethernet über ein Cat-3-Kabel zu übermitteln. Dabei sollte die Übertragung aber nur über zwei Leitungspaare erfolgen, um die anderen beiden Leitungen weiterhin für die Sprachtelefonie freizuhalten. Um diese Aufgabe zu lösen, wurde die Pulse Amplituden Modulation (PAM) entwickelt. Das beim 100Base-T2 verwendete PAM5x5 nutzt fünf verschiedene Pegel (-2, -1, 0, +1, +2).

Besonders interessant ist dabei, dass beide Leitungspaare vollduplex übertragen können. Dies wird durch den Einsatz von so genannten Hybrid-Transceivern ermöglicht. Diese weisen zwei Funktionalitäten auf:

Damit stellt dieser spezielle Vollduplex-Modus in gewisser Weise eine interessante Evolution in der Ethernet-Historie dar.

1. Für die Koaxialkabel muss ein Transceiver zum Einsatz kommen. Dieser muss beim Senden gleichzeitig die Pegel auf dem Kabel überprüfen, ob sie mit dem gesendeten Signal übereinstimmten. Weichen diese zu sehr von den gesendeten Signalen ab, wird dies als Kollision erkannt.

2. Bei der Übertragung mit Twisted-Pair-Kabeln bei 10Base-T werden Sende- und Empfangskanal getrennt.

3. Nun werden beim 100Base-T2 auch bei der Übertragung im Twisted-Pair-Kabel die Empfangs- und Sendekanäle wieder gemeinsam genutzt, um die geforderte Datenrate bei verfügbarer Bandbreite zu erreichen.

Auto-Negotiation

Der Einsatz von zwei unterschiedlichen Geschwindigkeitsstufen wirft die Frage nach der Kompatibilität auf. Auf Grund der ähnlichen Vorgaben lassen sich Baugruppen entwerfen, die in der Lage sind, wahlweise mit 10 oder mit 100 MBit/s zu kommunizieren. Wünschenswert ist dabei auch, dass automatisch die größtmögliche Geschwindigkeit genutzt wird. Zu diesem Zweck wurde im Rahmen des Fast-Ethernet-Standards das sogenannte Auto-Negotiation-Protocol (ANP) festgelegt, das auf dem von National Semiconductor entwickelten Nway-Protokoll basiert. ANP bezieht sich auf Verbindungssegmente zwischen zwei Kommunikationsteilnehmern. Es wird unmittelbar bei der Initialisierung der Verbindung aufgerufen und verwendet ein dediziertes Signalsystem. Dieses basiert auf den Normal Link Pulses (NLP), die 10Base-T zur Kontrolle der Verbindung regelmäßig versendet.

ANP sendet Signalfolgen mit 33 Fast Link Pulses (FLP), deren Timing genau den NLPs entspricht. Damit können 10Base-T-Stationen ohne ANP umgehen, denn sie erkennen diese Signale als NLP. Unterstützt eine Station aber das ANP, so kann es aus den 16 geradzahligen FPLs das 16 Bit Link Code Word auswerten, das Informationen über die unterstützten Geschwindigkeiten und Modi enthält. Anhand einer Prioritätenfolge werden dann Geschwindigkeit und Modus ausgewählt.

Auto-Negotiation Datenwort

Bit(s)

Bedeutung

0 - 4

Bei Ethernet immer 10000. Damit kann der Standard auch auf andere Übertragungssysteme erweitert werden.

5

unterstützt 10Base-T

6

unterstützt 10Base-T Full Duplex

7

unterstützt 100Base-TX

8

unterstützt 100Base-TX Full Duplex

9

unterstützt 100Base-T4

10

unterstützt Datenflusskontrolle

11

reserviert

12

reserviert

13

Fehlerindikator

14

ACK - Quittierung eines ANP-Datenpakets

15

NP (Next Page). Es folgen weitere Datenpakete mit herstellerspezifischen Informationen

Einschränkungen bei Auto-Negotiation

Bei 10 und 100 MBit/s ist Auto-Negotiation optional, bei 100Base ist es nur für Twisted-Pair gültig. Auf Grund verschiedener Wellenlängen ist bei den optischen Links ohnehin keine Interoperabilität möglich. Für Gigabit-Ethernet ist ANP verpflichtend vorgeschrieben.

Wenn ein Gerät nicht auf die FLPs antwortet, greift die sogenannte Parallel Detection, die den Übertragungsstandard anhand der Signalform und der Kodierung erkennt. Dabei wird allerdings standardmäßig der Halbduplexbetrieb ausgewählt. Dies führt dann zu Problemen, wenn das andere Gerät manuell auf Vollduplexbetrieb eingestellt wurde.

Das ANP bietet die Möglichkeit, zusätzliche Informationen auf weiteren Seiten (Next Page) zu übermitteln. Auf diese Weise können auch die Gigabit-Standards in das ANP einbezogen werden. Problematisch erscheint allerdings, dass diese Möglichkeit von einigen Herstellern dazu genutzt wird, herstellerspezifische Informationen zu übertragen. Aus diesem Grund vertragen sich verschiedene Herstellerpaarungen bei der Abwicklung des ANP nicht. In diesen Fällen muss dann meist manuell konfiguriert werden.

Switching

Mit dem Wechsel zu Twisted-Pair-Kabeln ersetzte man die ursprüngliche physische Busstruktur durch eine Sternarchitektur, bei der Punkt-zu-Punkt-Verbindungen über einen zentralen Knoten verschaltet sind. Mit dieser Sternarchitektur kann man das Prinzip des geteilten Zugriffs auf das Kabel zugunsten einer leistungsstärkeren Vorgehensweise aufgeben, dem Switching:

Zwei Faktoren sind nun aber noch zu beachten:

Da die Übertragung parallel durch die Verschaltungsmatrix des Switch erfolgt, wird dessen Bandbreite aufgeteilt. Innerhalb eines Gerätes lassen sich jedoch sehr viel höhere Bandbreiten erzielen und die Datenströme parallelisieren.

Wenn der Datenverkehr primär zu einem Gerät erfolgt, etwa einem Server, muss die Bandbreite der Verbindung zwischen Server und Switch geteilt werden.

Der Schritt von 100 auf 1000 MBit/s

Insbesondere die Switching-Technologie schürt den Bedarf nach höheren Bandbreiten für bestimmte Punkt-zu-Punkt-Verbindungen. Wenn beispielsweise die Anbindung eines Servers an den Knoten eine größere Bandbreite aufweist als die Geschwindigkeit aller anderen Clients zusammen, ließe sich der Verkehr problemlos bewältigen. Auch im Backbone-Bereich sind inzwischen größere Geschwindigkeiten erforderlich. Dementsprechend stellt die Verabschiedung eines 1 GBit/s-Standards eine logische Konsequenz dar.

Zur Übertragung von 1 Milliarde Bits pro Sekunde über eine Leitung hat man sich für zwei grundsätzliche Ansätze entschieden:

1000Base-X

1000Base-X nutzt ein 8B10B-Modulationsverfahren, das dem 4B5B-Verfahren aus dem 100Base-X verwandt ist. Dabei wird ein Byte mit acht Bit auf ein Wort mit zehn Bit kodiert, so dass sich die Datenrate auf 1250 MBit/s erhöht. 1000Base-X lässt sich über verschiedene Glasfasern oder über ein bis zu 25 Meter langes 150-W-Twinax-Kabel übertragen.

1000Base-TX

Die Steigerung der Datenrate von 100 auf 1000 MBit/s bei 1000Base-TX lässt sich in fünf Schritten erklären. Die Reihenfolge der Schritte ist dabei willkürlich gewählt.

1. Ausgehend von der Übertragung über ein Leitungspaar bei 100Base-Tx wird nun wie bei 100Base-T4 über alle vier Leitungspaare übertragen. Auf dieses Weise erhöht sich die Datenrate auf 400 MBit/s.

2. Verzichtet man auf die 4B5B-Kodierung, so steigt die Datenrate bei konstanter Übertragungsfrequenz auf 500 MBit/s.

3. Setzt man das PAM5x5 aus dem 100Base-T2 ein, so erreicht man eine Verdoppelung der Datenrate auf 1000 MBit/s, wobei wiederum die Übertragungsfrequenz unverändert bleibt. Dabei ist jedoch eine Verringerung des Signal-Rausch-Abstands um 6 dB durch den jeweils verringerten Signalhub zu verzeichnen, der nun durch eine zusätzliche Fehlerkorrektur ausgeglichen werden muss.

4. Bei der Trellis-basierten Fehlerkorrektur griff man auf eine Faltungskodierung zurück, wie sie insbesondere im Bereich des digitalen Mobilfunks, aber auch bei der Sprach- und Mustererkennung bereits seit langem verbreitet ist. Diese Fehlerkorrektur stellt die einzige wirklich neue Komponente im 1000Base-T-Standard dar.

5. Gleichzeitige Übertragung in beide Richtungen über ein Leitungspaar wie bei 100Base-T2. Damit erreicht man 1000 MBit/s im Vollduplex-Modus.

Von 1000 auf 10.000 MBit/s

Schon bevor 1000Base-T endgültig in trockenen Tüchern war, bildete sich im März 1999 eine Arbeitsgruppe innerhalb der IEEE802.3 Higher Speed Study Group (HSSG). Diese will mit IEEE802.3ae einen Standard für Datenraten von 10 GBit/s erstellen. Dabei wurde bereits zu diesem Zeitpunkt eine geschickte Doppelentscheidung getroffen, die die Grundlage für ein weiteres Vordringen des Ethernet-Standards darstellt.

Zum einen sollen bewährte Eigenschaften des LAN-Ethernets weiter fortgeführt werden. Insbesondere sollen das Rahmenformat und die unmittelbare Einpassung in die 802.x-Architektur die einfache Bündelung von langsameren Ethernet-Rahmen auf der höheren Geschwindigkeitsstufe und die unmittelbare Übernahme der bestehenden Techniken zur Verkehrssteuerung erlauben. Außerdem soll die Spezifikation eine kostengünstige Implementierung mit zwei- bis dreifachem Kostenaufwand im Vergleich zum Gigabit-Ethernet erlauben.

Zum anderen zeigt die Zielrichtung des 10 GBit/s-Ethernet aber deutlich in Richtung der Metropolitan Area Networks (MAN). Insbesondere werden nur noch Punkt-zu-Punkt-Verbindungen in Vollduplex-Modus unterstützt. Besondere Bedeutung erlangen dabei auch die für das Ethernet neuen Entfernungskategorien im Bereich von 50 Kilometer. Darüber hinaus sehen die gegenwärtigen Entwürfe die unmittelbare Anpassung an bestehende MAN-Strukturen vor, die auf der Basis von SONET/SDH implementiert sind.

Wie es sich für einen neuen Standard gehört, hat sich mittlerweile eine 10 Gigabit Ethernet Alliance (10GEA) gegründet. Ein erster Entwurf (Draft) des Standards wurde im September 2000 vorgelegt. Der endgültige Standard wird für das Jahr 2002 erwartet.

10GBase-SX und 10GBase-LX

Im gegenwärtigen Zustand sind zwei typische Ausrichtungen des 10 GBit-Ethernet vorgesehen, die sich im Wesentlichen durch ihre physische Schnittstelle unterscheiden. Der LAN PHY (SX) stellt eine kostengünstige Realisierung dar. Dagegen hat der WAN PHY (LX) große Entfernungen und die Kompatibilität zur bestehenden OC-192 WAN-Infrastruktur zum Ziel. Für beide Schnittstellen sind sowohl eine serielle als auch eine vierfach gemultiplexte Übertragung vorgesehen.

In diesem Zusammenhang sollte noch einmal deutlich herausgestellt werden, dass das 10 Gigabit-Ethernet nur noch die lichtbasierte Übertragung vorsieht, was keine Einschränkung darstellt, da in beiden Anwendungsszenarien (LAN-Backbone und WAN-Edge-Network) Glasfaser als Medium vorausgesetzt werden kann. Die physische Übertragung über optische Träger stellt im Vergleich zur kupferbasierten Übertragung sehr viel geringere Herausforderungen. Dennoch sind einige aus den bisherigen Standards bekannte Verfahren wiederzufinden. Man will damit erreichen, dass möglichst einfache und kostengünstige Glasfaserkabel eingesetzt werden können. Außerdem sollen die aktiven Komponenten mit geringen Frequenzen arbeiten und eine geringe Komplexität aufweisen. Im Abgleich zwischen den einzelnen Systembestandteilen ist allerdings festzustellen, dass der Fortschritt bei den Halbleitertechnologien und die Skalierung der Bauelemente eine aufwändigere (digitale) Signalverarbeitung eher rechtfertigt als kostenintensive passive Übertragungsmedien oder Laser.

Zwei Beispiele mögen diese Fortsetzung bekannter Verfahren illustrieren:

1. Die bewährte 8B/10B-Kodierung wird weiterhin eingesetzt. Um aber insbesondere bei der seriellen Übertragung die Bitrate nicht noch weiter nach oben zu treiben, wird nunmehr auch eine 64B/66B-Kodierung eingesetzt.

2. Um eine Übertragungsfrequenz zu erreichen, die noch mit gegenwärtig verfügbaren CMOS-Technologien erreicht werden kann, muss wiederum eine Zusammenfassung mehrerer Bits in kombinierte Symbole erfolgen. Hier wurden verschiedene alternative Verfahren geprüft, allerdings weist das bereits bekannte PAM5x5 die meisten Vorteile im Zusammenspiel von aktiven und passiven Komponenten auf.

Fazit

Mit der kostengünstigen Verfügbarkeit der verschiedenen Geschwindigkeitsstufen von 10 MBit/s bis 10 GBit/s könnte es dem Ethernet-Standard gelingen, endgültig zum vorherrschenden Netzwerk-Protokoll zu werden. Dies gilt im Bereich der lokalen Netze sowohl für die Bürokommunikation als auch in zunehmendem Maße für die Netze in der industriellen Automation. Mittelfristig kann sich Ethernet auch für regionale Netze (MAN) etablieren, da ein durchgehender Standard ohne Protokollumsetzungen einfacher und kostengünstiger ist als eine Vielzahl verschiedener Systeme.

Der Traum einer homogenen Netzwerklandschaft ist somit nicht ausgeträumt, allerdings unter einem anderen Vorzeichen, als ihn sich die Entwickler des verbindungsorientierten und zu aufwändigen ATM erhofft haben. (mha)