Vorfahrt für eilige Daten

Seit 1992 versucht das IETF, einen Standard zur Priorisierung von Datenströmen in TCP/ IP-Netzen zu etablieren - bislang mit mäßigem Erfolg. Dabei ist, was auf Layer 3 noch Interpretationen zuläßt, dank der Norm IEEE 802.1 p/Q auf Layer 2 seit 1998 bindend.

Von: Erwin Kampmann

Die Vor-Gates-Generation erinnert sich vielleicht noch: Wer in den 70er und 80er Jahren auf einem leistungsfähigen Computer arbeiten wollte, ging ins Rechenzentrum und schickte seine Programme als Batch ab. Dabei schätzte er zuvor deren Laufzeit ein und wies ihnen eine entsprechende Dringlichkeit zu: Kurze Jobs hatten eine hohe, lange eine niedrige Priorität. Auf diese Art und Weise half jeder einzelne Anwender mit, die damals ohnehin knappen Ressourcen optimal auszunutzen.

Auch die Netzwerke boten solche Optionen an. So zeichnet sich etwa das von IBM Mitte der 70er Jahre unter dem Namen "Systems Network Architecture" (SNA) bekannt gewordene Konzept bis heute durch ausgereifte Priorisierungsmöglichkeiten und eine ökonomische Ressourcenaufteilung aus. Als jedoch Mitte der 90er Jahre Bandbreite im Überfluß vorhanden war und der Internet-Boom die Verbreitung von TCP/IP-Netzen förderte, schien sich das Thema Priorisierung von selbst erledigt zu haben. Daß dem nicht so ist, zeigen die jüngsten Entwicklungen.

Netzwerke spielen heute eine wichtige Rolle in den Unternehmen, spiegeln sie doch in nahezu allen Details deren Infrastruktur und Prozeßgefüge wider. Dort, wo früher lediglich die Buchhaltung Daten von einem Sachbearbeiter zum nächsten schickte, wird künftig ein Allerlei von Applikationen über eine einzige Leitung fließen: mit Vorrang die Transaktionen des Buchungssystems, weniger zeitkritisch die E-Mails der Mitarbeiter. Und auch die Konvergenz der Netze fordert ihren Tribut. Warum sollte man Sprach- und Video-Informationen über ein anderes Netz transportieren als den Rest der Daten?

Damit sich die einzelnen Dienste nicht gegenseitig behindern, sollten die Netzwerkdesigner von vornherein eine Servicehierarchie einführen, welche die vorhandenen Ressourcen optimal auslastet. Daß ein Netzwerk dabei nie "non blocking" ausgelegt werden kann, ist eine Binsenweisheit: Irgendwann im Laufe des späteren Betriebs stößt es an seine Lastgrenzen. Ein ständig aktualisiertes Datenflußmodell, das den Verkehr durch die wichtigsten Netzwerkkomponenten analysiert, identifiziert mitunter solche Engpässe und initiiert so rechtzeitig geeignete Gegenmaßnahmen.