Konvergenz der Netze

29.01.1999
Die Projektgruppe 802 des IEEE will das LAN für die Übertragung von Sprache und Videos fit machen. Auf ihrer Tagung im November 1998 debattierten die Fachleute deshalb über Themen wie Dienstgüte, Link-Aggregation und einen schnellen Spanning-Tree-Algorithmus.

Die Entscheidung für ein einheitliches Transportmedium für Sprache, Daten und Videos ist im Grunde bereits gefallen. Künftig werden Sprache oder Videosignale digitalisiert, in kleine Pakete "zerhackt" und auf die Reise durch das Netz geschickt. Großzügig dimensionierte lokale Netze mit Übertragungsraten von 1 GBit/s fördern diese Entwicklung. Der Standard IEEE 802.3ab, der voraussichtlich im März verabschiedet wird, soll den Transport von Daten mit 1000 MBit/s sogar über relativ minderwertige UTP-Kupferkabel der Kategorie 5 ermöglichen.

Diese Entwicklung zwingt die Telekommunikationsunternehmen dazu, Kompetenz bei Datennetzen zu erwerben. Deshalb übernehmen sie klassische Netzwerkanbieter, siehe Nortel und Bay Networks, oder schließen Allianzen, wie die von Siemens und 3Com.

Echtzeitapplikationen benötigen allerdings eine zuverlässige Netzinfrastruktur; die können auch die neuen High-Speed-Techniken nicht herbeizaubern. Ein wichtiges Kriterium ist beispielsweise die Verfügbarkeit des Netzes; sie hängt unter anderem davon ab, ob genügend Bandbreite zur Verfügung steht. Der Fachmann kann beispielsweise das Netz so großzügig auslegen, daß es auch bei Spitzenlast noch genügend "Luft" hat (siehe rote Linie in Bild 1). Diese Lösung ist jedoch wenig flexibel und teuer. Optimal wäre eine Auslegung entsprechend der grünen Linie - vorausgesetzt, das Datenaufkommen kann gezielt gesteuert werden.

Die Arbeitsgruppe 802 des IEEE hat deshalb zwei Projekte gestartet, um herstellerübergreifende Lösungen zu erarbeiten, mit denen sich die Bandbreite feiner skalieren und die Zuverlässigkeit des Netzes erhöhen läßt: Link-Aggregation bei Ethernet-Switches und QoS-Funktionen (QoS = Quality of Service) für Ethernet-LANs.

Das Zauberwort heißt Skalierbarkeit

Das Thema Link-Aggregation steht bereits seit zwölf Monaten auf der Tagesordnung der IEEE-802.3-Arbeitsgruppe. Anfang dieses Jahres soll der erste Entwurf des Standards IEEE 802.3ad vorliegen. Link-Aggregation beschreibt die Fähigkeit eines Switches, mehrere physikalische Verbindungen zu einer Gruppe, also einer logischen Verbindung, zusammenzufassen. Für einen darüberliegenden MAC-Client sind Veränderungen auf der physikalischen Ebene transparent, das heißt er "sieht" lediglich die logische Verbindung.

Die Vorteile der Technik liegen auf Hand:

- Der Netzwerkverwalter kann die Bandbreite sehr fein skalieren, indem er Gruppen definiert beziehungsweise konfiguriert.

- Load-Balancing-Algorithmen sorgen dafür, daß Verbindungen gleichmäßig ausgelastet sind.

- Fällt eine physikalische Verbindung aus, springt automatisch eine andere ein (Redundanz). Redundante Systeme sind in der Regel kostengünstiger als andere hochverfügbare Systeme.

Sollen mehrere physikalische Verbindungen zusammengefaßt werden, sind einige Regeln zu beachten. Zum einen müssen beide Switches, also Sender und Empfänger, diese Funktion beherrschen. Außerdem dürfen nur Vollduplex-Verbindungen mit derselben Datenrate zusammengepackt werden. Der Link Aggregation Sublayer wird in die bestehende MAC-Ebene des OSI-Schichtenmodells eingefügt (Bild 2). Er besteht aus drei Funktionsblöcken:

- Datenempfang,

- Datenverteilung und

- Steuerung der Link-Aggregation-Funktion.

Am einfachsten ist die Empfangseinheit aufgebaut: Die Daten wandern in der gleichen Reihenfolge zum MAC-Client, in der sie empfangen werden. Der Sender ist dafür verantwortlich, daß die Pakete im Datenstrom richtig angeordnet sind. Die Sende- beziehungsweise Verteileinheit muß außerdem dafür sorgen, daß keine Frames dupliziert werden.

Auf der Sendeeinheit sitzt auch die Load-Balancing-Funktion; sie verteilt die Daten auf die physikalischen Verbindungen. Damit der Paketstrom nicht durcheinandergerät, können Daten einer bestimmten Ende-zu-Ende-Verbindung immer über dieselbe physikalische Leitung fließen.

Der Standard läßt offen, welcher Algorithmus letzten Endes die Lastverteilung steuert. Es bleibt also den Herstellern überlassen, eigene Verfahren zu entwickeln und sich so von Wettbewerbern zu differenzieren. Damit die Systeme verschiedener Anbieter zusammenarbeiten, und zwar auch dann, wenn die Switches unterschiedliche Verteilalgorithmen verwenden, wurden die Aufgaben von Sender und Empfänger getrennt.

Diskussion um Steuerprotokoll nicht abgeschlossen

Hauptaufgabe der Standardisierungsgremien ist es, ein Link-Aggregation-Steuerprotokoll zu definieren, über das die Informationen ausgetauscht werden, die für die Konfiguration notwendig sind. Die Fachleute diskutieren derzeit über Einzelheiten des Protokolls. Einigkeit herrscht nur über die Anforderungen und Ziele:

- Automatische Konfiguration: Eine Gruppe von physikalischen Verbindungen soll sich ohne Eingriff von außen zusammenfassen lassen;

- kontinuierliche Überwachung der Link-Aggregation-Gruppe und nötigenfalls deren Rekonfigurierung;

- eine Rekonfigurierung darf nicht dazu führen, daß Frames dupliziert werden und die Reihenfolge der Daten durcheinanderkommt;

- möglichst kurze Verzögerungszeiten nach Ausfall einer physikalischen Verbindung.

Die Link-Aggregation wird zunächst nur in Ethernet-LANs zur Verfügung stehen. Anbieter von Token-Ring-Produkten haben jedoch inzwischen eine vergleichbare Funktion entwickelt.

Kampf um Quality of Service geht weiter

Seit einiger Zeit steht mit IEEE 802.3x ein Standardverfahren für die Flußkontrolle in einem Ethernet-LAN zur Verfügung. Diese einfache, framebasierte Xon/Xoff-Methode ist jedoch in der Praxis oft unbrauchbar. Probleme bereiten beispielsweise die Übergänge zwischen Segmenten mit unterschiedlichen Datenraten. Ein weiterer Schwachpunkt sind zu hohe Verzögerungszeiten. Sie entstehen, wenn Anwendungen bei eingeschalteter Flußkontrolle das Netz überlasten. Einige Applikationen beanspruchen beispielsweise beim Start einen großen Teil der verfügbaren Bandbreite. Dazu zählt das "User Datagram Protocol" (UDP), das vielen Multimediaapplikationen als Transportprotokoll dient und im Gegensatz zu TCP keinen "Slow Start"-Mechanismus enthält.

Bild 3 zeigt, wie sich diese Faktoren auswirken können. So schränken überlastete Verbindungen unter Umständen die Bandbreite anderer Segmente stark ein. Das wiederum steht mit den Anforderungen in Widerspruch, die Echtzeitanwendungen in bezug auf Verzögerungszeiten stellen.

Ein verbessertes Flußkontrollverfahren soll diese Schwächen ausmerzen. Statt der kompletten Verbindung blockiert es einzelne Datenströme. Diese werden anhand von Prioritäten oder der im Paket enthaltenen Ziel- beziehungsweise Quelladresse identifiziert. So ist es möglich, den Durchsatz zu steigern und gleichzeitig Datenströme unterschied-licher Priorität zu unterscheiden. Als Grundlage für eine prioritätsgesteuerte Flußkontrolle kommt der bereits verabschiedete Standard IEEE 802.1p in Frage.

Erweiterung der Flußkontrolle diskutiert

Trotz dieser Ansätze bleibt QoS ein "Ende-zu-Ende-Problem". Alle Versuche, QoS auf der Basis einzelner Pakete zu lösen, sind zum Scheitern verurteilt. Die IEEE-Gremien wollen lediglich Mechanismen bereitstellen, die Ebene-3-Protokolle oder Applikationen aktiv nutzen können. Um eine brauchbare Lösung zu entwickeln, ist zuvor die Wirkungsweise von Anwendungen zu untersuchen, die eine bestimmte Dienstgüte benötigen. Dabei müssen die Transportprotokolle berücksichtigt werden, allen voran TCP/IP. Außerdem ist sicherzustellen, daß vorhandene Flußkontrollmechanismen, etwa die Sliding-Window-Technik von TCP, den Mechanismen nicht entgegenwirken.

Für eine Erweiterung der Ebene-2-Flußkontrolle spricht, daß mit IEEE 802.3x bereits ein Standard vorhanden ist. Gleiches gilt für die Priorisierung von Datenpaketen, die IEEE-802.1p/Q regelt. Hinzu kommt, daß Shared-Ethernet-Segmente zunehmend durch Switched-Ethernet abgelöst werden. Die Folge: weniger Paketkollisionen im Netz und damit die Möglichkeit, auch zeitkritische Daten über das LAN zu transportieren.

Ein Argument gegen eine erweiterte Flußkontrolle ist, daß eine Paketklassifizierung durch komplexe Mechanismen schwer zu implementieren und daher teuer ist. Verfahren, die auf Adressen basieren, bringen die Komponenten im Netz schnell ins Schwitzen. Denn die einzelnen Datenströme müssen unter enormem Aufwand an Rechenleistung analysiert werden, um den richtigen auswählen zu können.

Einfacher ist ein prioritätsgesteuertes Verfahren, etwa nach IEEE 802.1p/Q. Es sieht acht Prioritätsklassen vor, die meisten Switches unterstützen aber nur zwei bis vier Klassen. Deshalb ist ein Mapping notwendig, das jedoch dazu führen kann, daß Klassen mit niedriger Priorität höher eingestufte Classes blockieren. Zudem funktioniert die erweiterte Flußkontrolle nur bei Ethernet. Am problematischsten ist jedoch die Tatsache, daß die Wechselwirkungen mit bestehenden Ebene-3-Flußkontrollmechanismen nur unzureichend untersucht wurden. Das wiegt um so schwerer, als immer mehr Switches Layer-3-Funktionen enthalten. Hier sind andere Standardisierungsgremien involviert, etwa die Internet Engineering Task Force (IETF), was die Arbeit an einer einheitlichen Lösung weiter erschwert.

Arbeiten an High Availability Spanning Tree

Hohe Verfügbarkeit bedeutet auch, daß ein Netz Fehler in kürzester Zeit selbständig beheben kann. Die Mitglieder der IEEE-802.1-Arbeitsgruppe machten dazu einen vielversprechenden Vorschlag, der auf einem erweiterten Spanning-Tree-Algorithmus beruht. Der Ansatz möchte die Verzögerungen verringern, die beim Rekonfigurieren einer Spanning-Tree-Umgebung entstehen. Mit Hilfe von Signalisierungsverfahren auf der physikalischen Ebene sollen Werte von 10 ms erreicht werden - eine revolutionäre Verbesserung, denn bis zu 50 s sind an der Tagesordnung.

Spanning Tree nach IEEE-802.1D wurde eingeführt, um in einem LAN, das mit Hilfe von Brücken redundant konfiguriert wurde, an jedem Punkt eine optimale Erreichbarkeit sicherzustellen. Allerdings dürfen keine Schleifen durch redundante Verbindungen auftreten. Wird das Netz neu konfiguriert, werden zuvor blockierte Ports erst nach einiger Zeit aktiv. So können sich die neuen Spanning-Tree-Informationen im Netz verbreiten, ohne daß temporäre Schleifen geschaltet werden. Anderenfalls entstünde kurzfristig ein enormer Datenverkehr, der zu Störungen bei den Endstationen führen könnte.

Der Algorithmus weist den Brücken im Netze eine Rangfolge zu. Der Rang errechnet sich aus dem Bridge Identifier der Root Bridge, der Root Path Cost und dem eigenen Bridge Identifier. Jedes Segment an einer Bridge "erbt" zudem die Rechte der ranghöchsten Brücke, mit der das Segment verbunden ist. Außerdem können die Ports einer Brücke weitere, bisher nicht definierte Zustände einnehmen. Müssen Verbindungen neu konfiguriert werden, kann deshalb ein zuvor redundanter und damit blockierter Port sofort an der Vermittlung teilnehmen. Insgesamt läßt sich folgendes Resümee ziehen: Die Standardisierungsgremien müssen auf die Fragen, die die Konvergenz stellt, Antworten finden. Die bislang strikt eingehaltene Aufgabentrennung innerhalb der einzelnen OSI-Schichten verschwimmt dabei immer mehr. Gerade das kann sich jedoch als verhängnisvoll erweisen, speziell dann, wenn Lösungen in Rekordzeit erarbeitet werden, ohne alle Gremien mit einzubeziehen. (re)