Über die Gigabit-Schwelle

16.10.1998
Im Dezember vergangenen Jahres fand in San Jose (Kalifornien) die "Gignet 97" statt, eine Fachkonferenz zum Thema High-Speed-Networking. Wie nicht anders zu erwarten, war Gigabit-Ethernet das vorherrschende Thema. Dieser Technik räumte die Mehrzahl der 400 Kongreßteilnehmer im lokalen Netz bessere Chancen als ATM ein. Eine Nebenrolle im LAN werden High-Speed-Token-Ring und Fibre Channel spielen.

Von: Andreas Dreher, Bernd Reder

Der Bedarf an Bandbreite in lokalen Netzen nimmt drastisch zu. Eine Ursache dafür ist, daß immer mehr Unternehmen und Organisationen Intranets nutzen. Dadurch steigt die Belastung der Server, zusätzlich nimmt der Verkehr zwischen den Subnetzen zu. Nach einer Untersuchung des Beratungsunternehmens Infonetics werden 1999 etwa 45 Prozent des Datenverkehrs die Grenzen von Subnetzen überschreiten. Die klassische 80:20-Regel (80 Prozent des Verkehrs innerhalb eines Subnetzes, 20 Prozent über dessen Grenzen hinweg) gilt damit im lokalen Netz nicht mehr. Weitere Faktoren, die zu einer höheren Auslastung der Netze führen, sind der Einsatz leistungsfähigerer Arbeitsstationen, der Transfer von Multimediadaten, etwa von Präsentationen mit aufwendigen Grafiken, die Rezentralisierung von Servern sowie die wachsende Zahl von Benutzern (siehe dazu auch den Beitrag auf Seite 26/27 in dieser Ausgabe).

Als Lösung bieten sich High-Speed-Netze an, die Bandbreiten von mehr als 1 GBit/s zur Verfügung stellen. Sie waren das vorherrschende Thema auf der Fachkonferenz "Gignet 97" in San Jose (USA). Viel Beachtung findet gegenwärtig Gigabit-Ethernet. Der Standard wird voraussichtlich im März abgeschlossen; die Spezifikationen stehen jedoch bereits seit mehreren Monaten fest. Auf der Konferenz waren denn auch bereits etliche Geräte zu sehen, teils Prototypen, teils fertige Systeme. Auffallend war, daß vor allem junge Firmen (Start-ups) Produkte zeigten, während sich die Großen der Netzwerkbranche meist auf Ankündigungen beschränkten. Nahezu alle Hersteller versprachen jedoch, Gigabit-Ethernet zu unterstützen.

Die Vertreter des ATM-Lagers verwiesen auf den Zeitvorsprung gegenüber Gigabit-Ethernet. Basisstandards wie UNI 3.1, UNI 4.0, viele physikalische Schnittstellen, ILMI, Traffic Management, LAN-Emulation und seit kurzem MPOA (Multiprotocol over ATM) sind vorhanden, die Technik selbst ist mittlerweile in zahlreichen Netzen im Einsatz. Allerdings setzte sich ATM bis jetzt nicht in dem Maße durch, wie vor zwei oder drei Jahren prognostiziert. Der unbestreitbare Vorteil von ATM ist die Diensteintegration: Jeder Anwendung läßt sich eine bestimmte Servicequalität zusichern. Dies macht den asynchronen Transfermodus andererseits komplex und damit kostspielig.

ATM als Technik für den Weitverkehrsbereich

Am ehesten ist ATM im Weitverkehrsbereich und in der Telekommunikation akzeptiert. Hier stellt sich die Aufgabe, Telefongespräche, Datenverkehr und weitere Dienste über dieselbe Infrastruktur zu übertragen und eine bestimmte Dienstgüte zu garantieren. Für die Carrier ist es deshalb wichtig, das Netz möglichst lückenlos zu überwachen sowie exakte Abrechnungen erstellen zu können. Anders sieht es im LAN-Backbone aus: Viele Anwender bezweifeln, daß dort ATM Sinn macht. Ein Grund dafür ist, daß die Integration von Diensten in einem Campusnetz häufig noch kein Thema ist. Meist werden immer noch separate Netze für Telefonie und Daten aufgebaut. Nur vereinzelt kommen Anwendungen wie Internet-Telefonie oder Videokonferenzen zum Einsatz.

Ethernet wird echtzeitfähig

ATM stellt Dienstequalität durch ein ausgefeiltes Traffic Management bereit. Im Vergleich dazu ist der Ansatz von Gigabit-Ethernet pragmatischer. Statt die vorhandene Bandbreite anwendungsspezifisch zu verteilen, lautet die Devise "Möglichst viel Bandbreite zur Verfügung stellen", um bereits im Vorfeld Engpässe zu vermeiden. Während ATM-Switches Bandbreiten von 2,5 bis 5 GBit/s bieten, erreichen die Gigabit-Ethernet-Switches der ersten Generation 6 bis über 50 GBit/s - und dies zu niedrigeren Preisen. Wird Ethernet zudem um Funktionen wie Priorisierung von Datenverkehr, Flußkontrolle oder Switching/Routing auf Layer 3 beziehungsweise 4 erweitert, läßt sich eine Dienstgüte erreichen, die für viele Echtzeitanwendungen ausreicht.

Im Bereich Desktop-Anbindung hat Ethernet allem Anschein nach die Schlacht gewonnen. Der Verlierer ist ATM mit 25 MBit/s, das bis vor kurzem Firmen wie IBM mit großem Aufwand propagierten. Als Lösung der Zukunft gilt Switched Ethernet mit 10 oder 100 MBit/s bis zum Endgerät.

Nach einer Umfrage, die das Marktforschungsinstitut Dataquest Ende 1997 unter 200 mittleren und großen amerikanischen Firmen durchführte, gehen neun Prozent der Befragten davon aus, daß 1999 Gigabit-Ethernet die dominierende Backbone-Technik im LAN sein wird. ATM wird seinen Anteil von rund sieben Prozent (1997) auf über 15 Prozent erhöhen. Mehr als 35 Prozent der IT-Verantwortlichen geben Fast-Ethernet die besten Chancen.

Switching versus Routing

Ein wichtiger Aspekt von Gigabit-Networking ist Layer-3-Switching. ATM- oder Ethernet-Switches erreichen einen Durchsatz von mehreren GBit/s. Das Limit von Hochleistungsroutern liegt dagegen bei etwa 1 GBit/s. Somit sind konventionelle Router in großen Netzen ein Flaschenhals. Traditionelle Router-Architekturen, bei der eine CPU jedes Paket mittels spezieller Software verarbeitet, bieten keinen Raum für eine spürbare Leistungssteigerung. Außerdem sind solche Systeme teuer: Ein Hochleistungsrouter kostet etwa 150 000 bis 200 000 Mark, ein Layer-3-Switch mit einem Durchsatz von sieben bis elf Millionen Paketen pro Sekunde dagegen circa 35 000 bis 65 000 Mark.

Die ersten Layer-3-Systeme waren proprietäre Lösungen, das heißt, sie verwendeten firmenspezifische Protokolle für die Kommunikation zwischen den Switches, setzten zentrale Routeserver ein oder benötigten spezielle Protokollstacks auf den Endgeräten. Mittlerweile bieten einige Firmen Geräte an, bei denen anwendungsspezifische ICs (ASICs) IP-Pakete routen. Sie verarbeiten bis zu 30 Millionen Pakete pro Sekunde. Diese Systeme verhalten sich wie "normale" Router und verwenden Standardprotokolle wie RIP oder OSPF. Die Beschränkung auf IP ist kaum ein Nachteil, da dieses Protokoll an Bedeutung gewinnt.

ATM mit Vorteilen bei Flußkontrolle

Ein kritischer Punkt bei steigenden Datenraten sind Mechanismen zur Flußkontrolle. Das Problem ist um so gravierender, je größer die Entfernung zwischen den Kommunikationsteilnehmern ist. Ein Beispiel: Einem Sender in 1000 Kilometer Entfernung soll mitgeteilt werden, er möge wegen Überlastung des Netzes die Datenmenge reduzieren. Die Signallaufzeit der Steuermeldung beträgt in diesem Fall 10 ms. Bei einer Senderate von 1 GBit/s hat die Sendestation in dieser Zeit bereits weitere 10 MBit Daten übermittelt. Sollen diese nicht verlorengehen, müssen sie zwischengespeichert werden.

ATM bietet mit der ABR-Serviceklasse (Available Bit Rate) ein besseres Flow-Control-Verfahren als Ethernet. Solange jedoch Applikationen nicht in der Lage sind, solche Techniken zu nutzen, sind optimale Übertragungsraten über größere Distanzen hinweg nicht zu realisieren. Eine zufriedenstellende Lösung ist hier noch nicht in Sicht.

High-Speed-Token-Ring und Fibre Channel

Im Schatten von Gigabit-Ethernet und ATM versuchen die Anbieter von Token-Ring-Produkten, diese LAN-Technik zu "High-Speed-Token-Ring" weiterzuentwickeln. Ein Konsortium will Mitte des Jahres eine Variante mit 100 MBit/s auf den Markt bringen; für 1999 ist eine Version mit 1 GBit/s geplant. Hintergrund ist die große installierte Basis von Token-Ring. Während Ethernet-Anwender die Möglichkeit haben, ihr Netz von 10 über 100 MBit/s bis auf 1 GBit/s auszubauen, sind bei Token-Ring nach wie vor 16 MBit/s das Limit. Benötigt ein Anwender höhere Datenraten, muß er entweder ATM oder FDDI im Backbone einsetzen oder auf Fast- beziehungsweise Gigabit-Ethernet umsteigen. Allerdings bezweifeln viele Experten, daß High-Speed-Token-Ring die nötige Akzeptanz finden wird; auch auf der Gignet war das Interesse an diesem Thema gering.

Eine weitere Netzwerktechnik, die seit einiger Zeit mit Erfolg eingesetzt wird, ist der Fibre Channel. Er dient vor allem zur Anbindung von Peripheriegeräten - wie Speichersubsystemen - an Workstations. Allerdings lassen sich mit Hilfe von "Fibre Channel Switch Fabrics" auch große Netze mit Bandbreiten im Gigabit-Bereich aufbauen. Mit "IP über Fibre Channel" können Netzwerkapplikationen direkt auf dieser Technik aufsetzen. Die Datenrate pro Kanal beträgt 133 MBit/s bis 1 GBit/s. Es gibt jedoch keine Anzeichen dafür, daß der Fibre Channel die Bedeutung von Ethernet oder ATM erreichen wird.

Auswirkung von Gigabit-Datenraten auf die Verkabelung

Mit wachsenden Übertragungsraten rückt die Verkabelung stärker in den Mittelpunkt. Bei Gigabit-Ethernet über Kupferkabel gibt es eine Spezifikation für Twinax-Kabel (1000Base-CX); die maximale Reichweite beträgt 25 Meter. Einsatzgebiet ist in erster Linie die Kopplung von Servern, Hubs und Switches in Rechnerräumen. Die Arbeitsgruppe 802.3ab arbeitet außerdem an einer Norm für Twisted-Pair-Kabel der Kategorie 5, die Ende 1998 verabschiedet werden soll. Damit lassen sich Entfernungen bis 100 Meter überbrücken. Erste Produkte sind 1999 zu erwarten; da die Schnittstelle technisch aufwendig ist, dürfte sie allerdings kaum preiswerter sein als Multimode-Glasfaserkabel. Für optische Anschlüsse gibt es zwei Spezifikationen:

1000Base-SX verwendet relativ preisgünstige optische Komponenten mit 820 nm Wellenlänge und erlaubt Reichweiten bis 250 Meter; bei 1000Base-LX kommen Komponenten mit 1300 nm zum Einsatz. Mit Multimode-Fiber lassen sich 550 Meter überbrücken, mit Singlemode-Glasfasern drei Kilometer und mehr.

Bei ATM gibt es für die Übertragung über Kupferkabel mit 1 GBit/s und höheren Datenraten noch keine Schnittstelle. Lediglich für 622 MBit/s über Koaxialkabel liegt eine ITU-Norm vor. Hinzu kommen optische Schnittstellen für 2,4 GBit/s bis 15 Kilometer über Singlemode-Glasfaser. Das ATM-Forum arbeitet zudem an Spezifikationen für 1,2 und 2,4 GBit/s. Mit Multimode-Fasern lassen sich Daten mit 1 GBit/s nur über mehrere hundert Meter übertragen. Deshalb sind im Backbone künftig Singlemode-Fasern notwendig, gleich ob der Anwender Ethernet oder ATM einsetzt.

Switch auf einem Chip

Auf der Gignet erlaubten auch einige Halbleiterhersteller einen Blick hinter die Kulissen. So wird es künftig komplette Switches auf einem Chip geben, was sich in niedrigeren Preisen pro Port niederschlagen dürfte. In der zweiten Jahreshälfte kommen ICs auf den Markt, mit denen sich Switches mit 8 bis 24 10/100-Ethernet-Autosensing-Ports und Gigabit-Ethernet-Uplinks aufbauen lassen. In solchen Chipsätzen sind zudem Layer-3-Switching, die Priorisierung von Datenströmen und Verfahren zur Flußkontrolle realisiert. Diese Funktionen werden damit künftig nicht nur in High-End-Produkten zu finden sein.

Die beherrschenden Themen im Zusammenhang mit High-Speed-Netzen werden in den kommenden Jahren Gigabit-Ethernet, Layer-3-Switching und die Bereitstellung von "Quality of Service" (QoS) sein. Die nächste Gignet findet vom 11. bis 13. Mai in London beziehungsweise vom 7. bis 10. Juli in Boston statt. (re)

Literatur

[1] Rodriguez, Carlos: Im High-Speed-Fieber - IEEE-Tagung in Montreal; Gateway 2/1998, S. 66 ff.; Verlag Heinz Heise, Hannover 1998

[2] Detken, Kai-Oliver: ATM mit IP im Bunde - IP- und Tag-Switching; Gateway 2/1998, S. 92 ff.; Verlag Heinz Heise, Hannover 1998

[3] Reder, Bernd: Über Ebenen hinweg - Layer-3-Switching; Gateway 1/1998, S. 66 ff.; Verlag Heinz Heise, Hannover 1998

[4] Reder, Bernd: Zwischen Hype und Realität - Erste Produkte für Gigabit-Ethernet; Gateway 8/1997, S. 60 ff.; Verlag Heinz Heise, Hannover 1997

Andreas Dreher

studierte Elektrotechnik. Von 1989 bis Mitte 1997 war er bei Hirschmann im Bereich Entwicklung von High-Speed-LANs tätig. Seit Juli vergangenen Jahres ist er Leiter der Entwicklung und Konstruktion im Geschäftsbereich Netzwerktechnik der Hirschmann GmbH & Co.