Vorfahrt für eilige Daten

20.09.1999
Seit 1992 versucht das IETF, einen Standard zur Priorisierung von Datenströmen in TCP/ IP-Netzen zu etablieren - bislang mit mäßigem Erfolg. Dabei ist, was auf Layer 3 noch Interpretationen zuläßt, dank der Norm IEEE 802.1 p/Q auf Layer 2 seit 1998 bindend.

Von: Erwin Kampmann

Die Vor-Gates-Generation erinnert sich vielleicht noch: Wer in den 70er und 80er Jahren auf einem leistungsfähigen Computer arbeiten wollte, ging ins Rechenzentrum und schickte seine Programme als Batch ab. Dabei schätzte er zuvor deren Laufzeit ein und wies ihnen eine entsprechende Dringlichkeit zu: Kurze Jobs hatten eine hohe, lange eine niedrige Priorität. Auf diese Art und Weise half jeder einzelne Anwender mit, die damals ohnehin knappen Ressourcen optimal auszunutzen.

Auch die Netzwerke boten solche Optionen an. So zeichnet sich etwa das von IBM Mitte der 70er Jahre unter dem Namen "Systems Network Architecture" (SNA) bekannt gewordene Konzept bis heute durch ausgereifte Priorisierungsmöglichkeiten und eine ökonomische Ressourcenaufteilung aus. Als jedoch Mitte der 90er Jahre Bandbreite im Überfluß vorhanden war und der Internet-Boom die Verbreitung von TCP/IP-Netzen förderte, schien sich das Thema Priorisierung von selbst erledigt zu haben. Daß dem nicht so ist, zeigen die jüngsten Entwicklungen.

Netzwerke spielen heute eine wichtige Rolle in den Unternehmen, spiegeln sie doch in nahezu allen Details deren Infrastruktur und Prozeßgefüge wider. Dort, wo früher lediglich die Buchhaltung Daten von einem Sachbearbeiter zum nächsten schickte, wird künftig ein Allerlei von Applikationen über eine einzige Leitung fließen: mit Vorrang die Transaktionen des Buchungssystems, weniger zeitkritisch die E-Mails der Mitarbeiter. Und auch die Konvergenz der Netze fordert ihren Tribut. Warum sollte man Sprach- und Video-Informationen über ein anderes Netz transportieren als den Rest der Daten?

Damit sich die einzelnen Dienste nicht gegenseitig behindern, sollten die Netzwerkdesigner von vornherein eine Servicehierarchie einführen, welche die vorhandenen Ressourcen optimal auslastet. Daß ein Netzwerk dabei nie "non blocking" ausgelegt werden kann, ist eine Binsenweisheit: Irgendwann im Laufe des späteren Betriebs stößt es an seine Lastgrenzen. Ein ständig aktualisiertes Datenflußmodell, das den Verkehr durch die wichtigsten Netzwerkkomponenten analysiert, identifiziert mitunter solche Engpässe und initiiert so rechtzeitig geeignete Gegenmaßnahmen.

"Class of Service" bringt den Fortschritt

Probleme treten im Netzwerk insbesondere dann auf, wenn bei hoher Auslastung Übergänge mit unterschiedlichen Bandbreiten zu überwinden sind. So reihen beispielsweise Router und Switches eingehende Pakete in Warteschlangen ein und verschicken sie früher oder später weiter. In solchen Fällen schaltet der Sender aufgrund fehlender Empfangsbescheinigungen den Gang runter, die Transportschichten der beiden Kommunikationspartner vereinbaren eine niedrigere Transferrate. Dieses Verfahren zur Flußsteuerung eignet sich zwar bestens für Filetransfers, versagt aber wegen der auftretenden Verzögerungen bei Sprachübertragungen.

Ein probates Mittel, solche Schwierigkeiten zu umgehen, waren in der Vergangenheit spezielle Übertragungsprotokolle wie NetBeui oder "Local Area Transport Protocol" (LAT), deren Verfügbarkeit jedoch nie allgemein gewährleistet werden konnte. Erst TCP/IP brachte hier den Fortschritt. Obwohl inzwischen gezielte Priorisierung, also die Charakterisierung gemäß einer "Class of Service" (CoS) neben expliziten Bandbreitengarantien oder -beschränkungen ("Quality of Service", QoS), in TCP/IP-Netzen möglich ist, machen bislang nur wenige Hersteller von dieser Option Gebrauch.

Dringlichkeit auf verschiedenen Ebenen

Es gibt zwei verschiedene Priorisierungsverfahren (Bild 1):

- Hochwertige Router oder Layer-3/4-Switches werten die in den Daten vorhandenen Informationen aus und behandeln sie je nach Inhalt unterschiedlich. Dabei differenzieren sie nach Protokoll oder IP-Adressen; Layer-4-Switches identifizieren sogar die individuellen Applikationen anhand der TCP/UDP-Portnummern (UDP = User Datagram Potocol) und fertigen sie gegebenenfalls bevorzugt ab. Als zusätzlichen Service können diese Komponenten ihre "Erfahrung" weitergeben, indem sie die ausgehenden Pakete entsprechend ihrer Wichtigkeit kennzeichnen und damit weniger intelligenten Switches einen Teil der Arbeit abnehmen.

- Geeignete Header (IP Precedence/TOS = Type of Service Field) oder angefügte Tags (IEEE 802.1p/Q) kennzeichnen die Datenströme explizit.


In der Praxis kommt meist ein Mix aus beiden Varianten zum Einsatz. Zwar wird ein Durchbruch in puncto Priorisierung mit IP auf Layer 3 (Protokollschicht) möglich, vieles spricht allerdings dafür, entsprechende Verfahren auf Layer 2 (Verbindungsschicht) zu realisieren: Schon aus Kostengründen werden nur wenige Unternehmen ihr gesamtes Netzwerk mit Routern oder Layer-3-Switches bis zum Arbeitsplatz ausstatten wollen; und Layer-2-Switches sind meist nicht in der Lage, den IP-Header zu interpretieren. Zudem verschleiern Verschlüsselungsmethoden wie IPSEC die relevanten Layer-3-Informationen, vereiteln also letztlich alle Priorisierungsbemühungen auf Layer 3.

Das IEEE hat die Norm IEEE 802.1D um ein Addendum ergänzt, das eine Paketpriorisierung innerhalb von Layer-2-Infrastrukturen erlaubt. Mitte 1998 ratifiziert, faßt es die Ergebnisse der Arbeitsgruppe 802.1p zusammen und beschreibt ein Verfahren für alle gängigen Frame-orientierten LAN-Verbindungstechniken, also beispielsweise alle Ethernet-Varianten (10, 100, 1000) und FDDI. Es sieht einen Header vor, der gleichzeitig als Label für das standardisierte VLAN-Tagging (VLAN = Virtual LAN, IEEE 802.1Q) dient. Außerdem beschreibt es das automatische Registrierungsprotokoll "Generic Attribute Registration Protocol" (Garp), das zur Bildung von netzwerkübergreifenden VLAN- und Multicast-Strukturen eingesetzt werden kann.

Das in dem Addendum festgelegte Zusatz-Tag besteht aus vier Octets (1 Octet = 8 Bit), von denen zwei als Tag-Protocol Identifier und zwei als VLAN Tags dienen (Bild 2). Die "Duftmarke" 81-00 in den beiden ersten Octets signalisiert den durchlaufenen Schaltstellen, daß das Paket dem IEEE-802.1p/Q-Standard folgt. Die beiden folgenden Octets enthalten drei Bit für acht verschiedene Prioritätsstufen, zwölf Bit für insgesamt 4096 verschiedene VLAN-Identifier und ein Flag, das angibt, ob es sich um ein normales Ethernet-Paket oder ein getunneltes Token-Ring-Paket handelt. Alle sonstigen Informationen sind durch den Einschub des Zusatz-Tags um vier Octets nach hinten verschoben.


Der Standard stellt die Markierung der individuellen VLAN-Zugehörigkeit frei. Die Prioritäten können wie in der Tabelle "Beispiel einer Priorisierung" verteilt werden. Je nach Anzahl der implementierten Queues kommen auch weniger differenzierte Priorisierungen in Frage. Im Randbereich des Netzwerks reichen in der Regel zwei Queues, im Zentralbereich vier. Bleibt die Frage, wie das Zusatz-Tag praktisch zum Einsatz kommt?

Probleme mit alten Geräten

Wie können die Endgeräte das Zusatz-Tag überhaupt in die Frames einbauen? Was, wenn diese länger werden als die bisher üblichen 1518 Bytes? Und überhaupt: Wie reagieren eigentlich die Netzwerkkomponenten?

Bereits vorhandene und neu zu installierende Switches lassen sich im Prinzip in zwei Kategorien einteilen:

- Solche, die das neue Frame-Format nicht verarbeiten können, deshalb einen Fehlerzähler hochsetzen und schlimmstenfalls die Pakete verwerfen, und

- solche, die das neue Frame-Format ganz oder teilweise interpretieren können; hier reicht die Palette von "Nicht verwerfen dieser Pakete" bis hin zur korrekten Bearbeitung sämtlicher Priorisierungs- und VLAN-Informationen.

Weil die Auswertung der Header-Informationen aus Performance-Gründen von Asics abgewickelt wird, ein späteres Software-Update also nicht möglich ist, sollten neu anzuschaffende Geräte unbedingt IEEE-802.1p/Q unterstützen.

Endgeräte, welche die Zusatz-Tags in die Frames einbauen, sollten die Nutzlast soweit verringern, daß die Paketlänge 1518 Bytes nicht überschreitet. In Betriebssysteme der nächsten Generation, beispielsweise Windows 2000, wird diese Funktion integriert sein. Wer sie heute schon nutzen möchte, sei beispielsweise an 3Com verwiesen. Die Firma bietet für ihre Netzwerkkarten eine Erweiterung des Netzwerk-Stacks an, der unter dem Namen "Dynamic Access" für alle Windows-Varianten verfügbar ist und im Web heruntergeladen werden kann (Bild 3).


Was bringt die Zukunft?

Bei einem LAN-WAN-Übergang endet eine Paketpriorisierung auf Layer 2, hier wird Layer 3 zwingend. Der eine oder andere erinnert sich in diesem Zusammenhang vielleicht noch an den "Request for Comment" (RFC) 1349 von 1992, in dem ein "Precedence"- und TOS-Feld (TOS= Type of Service) eigens für diesen Zweck definiert worden ist (Tabelle "Precedence und TOS"). Wie es zu interpretieren sei, darüber sind sich die verschiedenen Routerhersteller allerdings auch heute noch nicht einig - ein gewisser Konsolidierungsprozeß ist jedoch im Gange. Man arbeitet an Implementierungen, die einen nahtlosen LAN-WAN-Übergang schaffen, der noch dazu in beiden Richtungen gleichermaßen durchlässig ist.

Priorisierungsfunktionen werden die nächsten Fortschritte bei der Konvergenz der Netzwerke einläuten. Das Ranking von Anwendern und Applikationen bleibt aber auch in Zukunft eine Entscheidung der Netzwerkverantwortlichen. Sie werden eigene Richtlinien in zentralen Directory Services ablegen ("Policy based Networking") und so letzlich diejenigen Aufgaben übernehmen, die vor der Gates-Ära noch von jedem einzelnen Anwender selbst mal besser und mal schlechter erledigt worden sind - Sie erinnern sich? (sk)