Qualitätsmanagement versus Bandbreite

16.11.2001
Datenströme lassen sich mithilfe unterschiedlicher Dienstgüten intelligent verwalten, ohne dass die Erhöhung der Bandbreite nötig ist. Um die Netze wirtschaftlicher zu betreiben, gibt es diverse Lösungsansätze.

Von: Andreas Wurm

In den Kommunikationsnetzen von heute steigt nicht nur die Datenmenge, auch deren Qualität ändert sich. So gibt es Applikationen, die eine gewisse Bandbreite benötigen, oder zeitkritische Datenströme wie zum Beispiel Sprachdaten bei Voice over IP. Videokonferenzen erfordern Multicast-Techniken, geschäftskritische Anwendungen wie SAP/3 benötigen eine höhere Priorität als zum Beispiel HTTP-Verkehr.

Die Entwicklung der Anwendungen und der Ausbau der Netzwerkinfrastruktur gehen normalerweise nicht Hand in Hand. Der Bandbreitenhunger vieler Applikationen steigt, wodurch sich die Last auf den Leitungen erhöht. Bisher reagieren die Netzverantwortlichen darauf, indem sie die Bandbreiten im LAN erhöhen. Mittlerweile sind jedoch auch Techniken verfügbar, die vorhandene Kapazitäten besser ausnutzen.

Queuing-Mechanismen

Der Oberbegriff für die Zusicherung verschiedener Dienstgüten heißt Quality of Service (QoS). Diese bietet zum Beispiel die Möglichkeit, bestimmten Anwendungen eine vom Administrator definierte Bandbreite zuzuweisen.

Um die vorhandene Bandbreite besser zu verwalten, bietet QoS zwei Lösungsansätze: Zum einen lassen sich Ressourcen vom Sender zum Empfänger reservieren, wobei Sender und Empfänger sowohl Endgeräte als auch Router sein können. Zum anderen besteht die Möglichkeit, Datenpakete im Netzwerk zu priorisieren. Eine QoS-Zusage ist dabei nur so gut, wie das schwächste Element in der langen Kette der Datenübertragung zwischen Sender und Empfänger. Darum sollten die verschiedenen Komponenten von Layer 1 bis 7 zusammenarbeiten, um eine effiziente End-to-End- Kommunikation zu ermöglichen. Sie müssen zum Beispiel in der Lage sein, Layer-3-Verkehr auf Layer 2 umsetzen, damit auch die Switches in den Unternehmen den wichtigen Verkehr bevorzugt zum Endanwender weiterleiten. Router sorgen dafür, das IP-Pakete den richtigen Weg zum Empfänger finden. Sie vergleichen die Zieladresse mit der integrierten Weiterleitungstabelle (Routing Table) und bestimmen so den nächsten Knotenpunkt.

Wenn IP-Pakete einen Router passieren, entstehen Verzögerungszeiten durch Warteschlangen (Queues), Auslesen der Pakete und durch die Wegwahl. Um die Gesamtverzögerungszeit vom Sender bis zum Empfänger zu minimieren, sollten die Geräte die Queues bestmöglich verwalten. Router arbeiten nach dem Fifo-Prinzip (First in, first out). Das heißt, Daten, die aufgrund der Zieladresse das Gerät auf einem bestimmten Port verlassen, müssen so lange warten, bis alle zuvor eingetroffenen Pakete verschickt sind, die auch über diese Schnittstelle gesendet werden sollen, versendet sind. Ist der Speicher überfüllt, beginnt der Router damit, Pakete zu verwerfen. Die Technik Random Early Discard (RED), wirkt dem entgegen, indem sie die Auslastung der Eingangs-Queues effizient steuert. Dies verbessert den Durchsatz bei Überlastung. Wirft der Router dennoch Daten aus dem Speicher, lassen sich mit Weighted Random Early Discard (WRED) Prioritäten beim Löschen festlegen.

Eine andere Möglichkeit, Datenströme über die Warteschlangen zu priorisieren, sind die beiden Verfahren Strict Priority Queuing und Weighted Fair Queuing. Ersteres sammelt Daten entsprechend ihren Prioritäten und leitet sie in definierte Ausgangsspeicher. Bei der zweiten Technik versendet der Router die Traffic-Flows gewichtet. Jeder Ausgang bekommt einen bestimmten Prozentsatz der verfügbaren Bandbreite. Dadurch lassen sich auch Daten mit der niedrigsten Priorität fortlaufend versenden. Je nach Auslastung der Ausgänge ist es möglich, die gerade verfügbare Bandbreite dynamisch zuzuweisen.

Priorisierung auf Layer 2 und 3

Auf Layer 2 lassen sich Ethernet-Frames mithilfe eines drei Bit großen Tags priorisieren und einer bestimmten Klasse zuordnen. Dieses Verfahren wurde von der IEEE (Institute of Electrical and Electronical Engineers) in dem Standard 802.1p definiert. Dieser legt acht Priorisierungsstufen fest. Das Tag fügt ein Switch in das Paket ein. Die Daten werden dann auf ihrem Weg zum Empfänger über die vom Systemverwalter festgelegten Queues der Switches und Router transportiert. Damit können die Netzkomponenten auf Layer 2 intelligente Forwarding-Entscheidungen treffen. Für die darüber liegenden Ebenen sind andere Verfahren wie Integrated Services (Intserv) oder Differentiated Services (Diffserv) nötig.

Durch Intserv lassen sich einem einzelnen Datenstrom definierte Ressourcen zur Verfügung stellen. Das bekannteste Verfahren hierfür ist das Layer-3-Signalisierungsprotokoll Ressource Reservation Protocol (RSVP). Es stellt in verbindungslosen IP-Netzen eine logische Ende-zu-Ende-Kommunikation her. Mit einer Path Control Message ordert ein Sender für einen Traffic Flow eine bestimmte Dienstqualität. Der Empfänger initiiert die eigentliche Reservierung, indem er eine Reservierungsbestätigung, eine so genannte RESV-Meldung zurückschickt. Sie enthält die Service Request Specification (Rspec) mit diversen Daten, wie zum Beispiel maximale Verzögerung oder gewünschte Bandbreite. Die Router auf der Sendestrecke analysieren diese Anforderung und schicken sie weiter in Richtung Sender.

Wenn alles funktioniert, wird damit vor dem Senden der Daten eine direkte Leitung zwischen dem Absender und dem Empfänger geschaltet. Bei RSVP-Sessions müssen die Geräte die RESV-Meldung pe-riodisch auffrischen, um den Status einer durchgeschalteten Leitung vom Sender zum Empfänger zu erhalten. Der Grund hierfür ist das so genannte Soft-State-Konzept von RSVP. Den Einträgen in den Routern wird ein Timer zugeordnet. Wenn dieser abläuft, lösen die Geräte die Reservierung, es sei denn, der Sender schickt erneut eine Path-Message.

Nachteil dieser Technik ist der hohe Kommunikationsaufwand für die kontinuierlichen Reservierungsanfragen vom Sender und die kontinuierlichen Buchungsbestätigungen des Empfängers. Sie beanspruchen die Kapazitäten des Routers und benötigen eigene Queues, um die Messages zu verarbeiten, ohne die anderen Datenströme negativ zu beeinflussen. Außerdem muss jeder Router auf der Übertragungsstrecke RSVP unterstützen, damit eine End-to-End-Verbindung zu Stande kommt. Intserv/RSVP wird bisher kaum eingesetzt, da die Signalisierung sehr aufwändig ist.

Differentiated Services

Im Gegensatz zu Intserv arbeitet die Diffserv-Technik ohne eine Ende-zu-Ende-Signalisierung. Einzelne Datenpakete werden klassifiziert und dann entsprechend ihrer Priorität durch das Netz geleitet.

Das Verfahren beruht auf einem Domänenkonzept, bei dem die Router am Ein- und Ausgang der Domäne Dienstkennzahlen übergeben beziehungsweise übernehmen. Diese Parameter für einen bestimmten Datenstrom sind in Service Level Specifications (SLS) zusammengefasst. Ein Bestandteil der SLS sind die Trafic Condition Specifications (TCS), welche die einzelnen Klassifizierungs-Bestimmungen und Traffic-Profile definieren.

Die Router einer Domäne werten den Datenstrom aus und leiten ihn weiter. Fordert ein Nutzer durch Markieren der entsprechenden Pakete einen bestimmten Qualitätslevel, weiß das Netz, wie es diese Frames behandeln muss.

Per Hop Behaviour (PHB).

Dieses Verfahren liest diese Informationen aus und definiert die Zuteilung von Bandbreite und Speicherkapazitäten, sowie Traffic-Kennzahlen wie zum Beispiel maximale Paketverluste oder Verzögerungszeiten.

Die Unterscheidungsmerkmale für die diversen PHB-Weiterleitungs-kategorien stehen im acht Bit großen Type-of-Service-Feld (ToS), das Teil des IP-Paket-Headers ist. Tritt ein Datenstrom in eine Domäne ein, wird er von so genannten Traffic-Condition-Funktionen zuerst klassifiziert, anschließend modifiziert und weitergeleitet. Innerhalb einer Diffserv-Domäne müssen die Router leistungsfähig genug sein, damit sie das Verkehrsaufkommen am Rande der Netze aufnehmen und verarbeiten können.

Für die Vergabe von Klassifizierungsparametern ist es wichtig, die Art der zu priorisierenden Verkehrsströme schon am Eingangsknoten festzustellen. Diese Bewertung ist als Multilayer Frame Classification bekannt. Sie erlaubt es, Pakete anhand ihrer Klassifizierungs-Informationen in den Layer-Schichten zwei, drei und vier zu bewerten.

Ausblick

Carrier und Serviceprovider bieten im WAN mittlerweile Service Level Agreements (SLA), die den Kunden genau festgelegte QoS-Merkmale garantieren. Inwieweit sich das Qualitätsmanagement auch in lokalen Netzen durchsetzt, bleibt abzuwarten.