Auf dem Prüfstand

16.10.1998
Investitionsentscheidungen im Bereich Netzwerk-Equipment sind auch für Fachleute oft schwierig: Herstellerunabhängige Unterlagen über die Leistungsfähigkeit von Switches und Routern sind rar. gateway bietet seinen Lesern gründlich überprüfte, objektive Informationen: Unser Kooperationspartner EANTC gehört weltweit zu den ersten Adressen auf dem Gebiet der Netzwerktests.

Von: Christian Garbrecht

Es gibt wenige Komponenten der betrieblichen Informationstechnik, die für den Betreiber schwieriger zu durchschauen sind als die Router und Switches in den Datennetzen. Dabei kommt ihnen eine entscheidende Bedeutung für die Gesamtleistung des Netzes zu. Ein falsch dimensionierter Router oder Switch kann die Produktivität ganzer Abteilungen bremsen. Nur: Wie identifiziert der User genau das richtige Gerät in der Vielfalt des Angebots? Das renommierte "European Advanced Networking Test Center" (EANTC) der Technischen Universität Berlin verfügt hier über langjährige Erfahrungen und ausgefeilte Konzepte.

Eine überlegte Herangehensweise ist dabei ebenso wichtig wie das strikte Einhalten von Normen und Randbedingungen. Die Funktionsfähigkeit von Netzwerkkomponenten läßt sich nur dann richtig und umfassend beurteilen, wenn drei grundsätzliche Fragen geklärt sind:

Inwieweit beherzigt ein Gerät die relevanten Standards, kann es mit entsprechenden Geräten anderer Hersteller kommunizieren, und wie verhält es sich unter Last?

Um diese Fragen zu beantworten, sind drei unterschiedliche Testarten anzuwenden: Konformitätstests dienen der Überprüfung eines auf einem bestimmten Gerät implementierten Protokolls auf Übereinstimmung mit der entsprechenden Spezifikation. Eine gute Konformität ist die wesentliche Voraussetzung für die generelle Funktionsfähigkeit eines Systems.

Tests müssen reproduzierbar sein

Reale Systeme entsprechen nicht immer den gesetzten Vorschriften: Manchmal sind nur einige Teilaspekte eines Standards implementiert, manchmal sind die Standards selbst unvollständig, widersprüchlich oder mehrdeutig - schließlich werden sie auch "nur" von Menschen gemacht. Deshalb ist das Einhalten dieser Vorschriften keine Garantie, daß Geräte unterschiedlicher Hersteller miteinander kommunizieren können. Diese Forderung wird durch entsprechende Interoperabilitätstests verifiziert.

Keine dieser beiden Testarten macht eine Aussage über die Leistungsfähigkeit eines Systems. Hierzu bedient man sich der Performanztests. Die Vielzahl der Einflußmöglichkeiten auf ein System macht es unmöglich, auf der Basis von durchgeführten Untersuchungen verbindliche allgemeingültige Aussagen zu treffen. Hier ist zunächst eine Reihe von Randbedingungen festzulegen, die es erlauben, die Tests beliebig zu wiederholen.

Für alle Testarten gelten die gleichen Forderungen: Sie müssen reproduzierbar sein und zu einem eindeutigen Ergebnis führen. Im Falle empirischer Untersuchungen, wie etwa der mittleren Durchsatzrate eines Routers, spielt auch die Zuverlässigkeit des Ergebnisses eine wichtige Rolle.

Jede Messung ist natürlich nur so gut wie die eingesetzten Meßgeräte und Testdaten, die Referenz-Datenpakete. Daher muß der Tester bei der Auswahl der geplanten Testszenarien große Sorgfalt walten lassen.

Eine Grundvoraussetzung für die Qualität eines Geräts ist dessen Konformität zu den zugrundeliegenden Standards. Um dies sicherzustellen und um Fehler in der Geräte-Software möglichst frühzeitig zu finden, haben mehrere Firmen sogenannte Conformance-Testsuites in ihr Angebot aufgenommen, mit denen Hersteller ihre Geräte überprüfen können. Weltweit erstmalig bietet das EANTC einen Zertifizierungsdienst für die Konformität von ATM-Protokollen (http://www. eantc.de/testsuite.) Bei den Tests wird die ISO-Norm IS 9646 strikt eingehalten, die den gesamten Prozeß der Spezifizierung regelt. Diese Vorgehensweise gewährleistet, daß das Zertifikat international akzeptiert wird. Für den Verbraucher ist es die Garantie einer sauberen Software-Implementation.

Vielschichtes Thema: Leistung

Ausgehend von einem Protokollstandard oder einer Protokollspezifikation erstellt das Testlabor eine Checkliste über alle Eigenschaften einer Implementation (PICS). Hieraus entwickelt es eine Testsuite, die das zu testende Gerät (SUT) automatisch auf alle diese Eigenschaften hin untersuchen soll. In der Regel sind noch einige gerätespezifische Parameter (PIXIT) einzustellen, die der Standard nicht erfaßt, zum Beispiel die IP-Adresse des SUT. Ab jetzt führen die Testgeräte alle Einzeltests automatisch aus und protokollieren sie. Die Ergebnisse werden in einem Testreport festgehalten (Bild 1).

Um ihre Marktchancen zu erhöhen, kooperieren die Hersteller von Netzwerk-Komponenten dahingehend, daß sie die Interoperabilität ihrer Geräte untereinander testen. Sie tun das entweder in ihren ei-genen Labors oder im Rahmen sogenannter Group Testing Events in neutralen Institutionen wie dem EANTC.

Vor dem Kauf eines Gerätes sollte sich der Anwender in jedem Fall versichern, daß es auch in ein einem heterogenen Umfeld funktioniert. Seine Leistungsfähigkeit und die Einhaltung von gewünschten Dienstqualitäten, der "Quality of Service", spielen damit eine Schlüsselrolle für die Wahl eines bestimmten Produkts oder einer bestimmten Technik.

Der Begriff "Performanz" umschreibt ein weites Feld von Eigenschaften und Verhaltensweisen eines Systems. Hierzu gehören Fehlerraten, Latenzzeiten, Datendurchsatzraten oder der Zeitverbrauch von eingesetzten Protokollen und Algorithmen, etwa für den Verbindungsaufbau, oder die Routenberechnung. Zur Bestimmung dieser Größen sind eine Vielzahl von Randbedingungen zu beachten, damit Dritte in der Lage sind, die Tests zu wiederholen und somit zu überprüfen.

Anwender brauchen andere Tests

Diese Vielschichtigkeit macht es notwendig, als ersten Schritt vor jeder Messung deren Ziel zu definieren. In diesem Punkt unterscheidet sich übrigens die Performanzmessung von der Konformitätsmessung und der Interoperabilitätsmessung, bei denen das Ziel bereits in der Definition enthalten ist. Oft möchte man eine Aussage über das Netzwerkverhalten für eine bestimmte Anwendung oder eine Klasse von Applikationen erhalten. Anwender begnügen sich in der Regel damit, die Leistungsfähigkeit ihres Netzes für einen möglichst betriebsnahen Fall nachzuweisen. Dafür reichen meist einige wenige Messungen im Betriebsnetz oder in einem betriebsähnlichen Referenznetz. Ein solches Vorgehen eignet sich allerdings nur, wenn die Performanz der einzelnen eingesetzten Komponenten bekannt ist und lediglich die Leistungsfähigkeit des Gesamtnetzes dokumentiert werden soll. Werden die geforderten Kriterien nicht erfüllt, erhält man mit dieser Methode keinerlei Information, an welcher Stelle die Schwachpunkte sitzen. Um die Eigenschaften eines Netzes kennenzulernen, wird man daher zunächst die Eigenschaften der einzelnen Geräte ohne und mit Hintergrundlast untersuchen, um dann schrittweise, je nach Ziel der Messungen, die Komplexität des Versuchsaufbaus zu erhöhen. Vergleichende Tests bieten sich an, sucht man eine Antwort auf die Frage, welche Netzwerktechnologie denn die "bessere" sei. Das Top-Thema der letzten Monate auf diesem Gebiet ist die Diskussion "Gigabit-Ethernet contra ATM".

Welche Performanzaspekte überhaupt gemessen werden können, hängt von der verwendeten Netztechnologie ab, zum Beispiel ATM, Ethernet und IP (siehe Tabelle).

Zwei Beispieluntersuchungen veranschaulichen die Durchführung von Performanztests: Das erste Beispiel zeigt den Anstieg der Verzögerungszeiten in einem ATM-Switch in Abhängigkeit von der Datenrate auf seinem Ein- und Ausgangsport (Bild 2).

Das zu untersuchende Gerät ist mit seinen Ein- und Ausgangsports an einen Analyzer angeschlossen. Letzterer sendet numerierte und mit einem Zeitstempel versehene ATM-Zellen an den Switch, welcher sie wieder an das Testgerät weiterleitet. Aus dem Zeitstempel und der gemessenen Empfangszeit lassen sich zwei statistische Größen ermitteln: Zum ersten kann der Tester damit die Zellverzögerungszeit oder Cell Delay ablesen. Diese Größe wird auch als Latenzzeit bezeichnet. Der zweite Meßwert, der sich so gewinnen läßt, ist die Cell Delay Variation, die statistische Abweichung der Verzögerungszeiten über mehrere Zellen. Die Meßwerke können durchaus von der Belastung des untersuchten Gerätes abhängen (Bild 3). Bei Frame-orientierten Technologien kommen noch Framegröße und Buffergrößen als Einflußfaktoren dazu.

Das zweite Beispiel für einen Performanztest vergleicht den Durchsatz von TCP-Paketen in einem Ethernet/ ATM-Szenario aus dem Jahr 1995 - einer Zeit also, in der die ATM-Technologie noch in den Kinderschuhen steckte, - mit den heute erreichbaren Werten (Bild 4). Die Untersuchungen sollten jeweils eine Aussage darüber liefern, inwieweit sich die Leistungsfähigkeit eines Netzes ändert, wenn statt einer reinen Ethernet-Lösung ein ATM-Backbone verwendet wird. Weil der Versuchsaufbau und die Randbedingungen 1995 und 1998 identisch waren, lassen sich beide Messungen miteinander vergleichen. Als Randbedingungen waren alle Größen festgesetzt, deren Veränderung die Messungen beeinflussen könnten:

Die eingesetzten Endsysteme mußten in der Lage sein, TCP-Pakete mit voller Ethernet-Bandbreite zu senden und zu empfangen. Die Socket Buffer Size der Endgeräte mußte in beiden Messungen den gleichen Wert haben. TCP-Parameter, beispielsweise Window Size, mußten gleich sein. Die Versuche fanden ohne Hintergrundlast auf der Ethernet- und der ATM-Seite statt. Die ATM-Verbindung war durch die eine Ethernet-Strecke (zuzüglich 10 bis 13 Prozent ATM-Overhead) nur sehr gering belastet, so daß diese den Gesamtdurchsatz nicht beeinflußte.

Bei den vorgestellten Messungen wurden zwar jeweils einzelne Interfaces der involvierten Systeme belastet, nicht jedoch deren Funktionsgruppen wie Switching-Engine oder Routing-Algorithmus. Des weiteren standen die physikalischen Verbindungen exklusiv für die Testdaten zur Verfügung. In der betrieblichen Realität muß sich ein Benutzer aber das Netz mit vielen Kollegen teilen, so daß das Netz oder zumindest Teile davon stark belastet werden. In solchen Streßsituationen ist zu erwarten, daß sich die Performanz einer spezifischen Verbindung verschlechtert. Streßtests dienen dazu, das Netzverhalten unter eben diesen Lastbedingungen abzuschätzen. In der Praxis sind mehrere Streßsituationen zu unterscheiden:

Der Meßdatenstrom muß sich auf einer Leitung die verfügbare Bandbreite mit anderen Verbindungen teilen. Diese Messungen werden mit Hintergrundlast durchgeführt. Neben dem Meßdatenstrom muß das zu untersuchende Gerät noch eine Vielzahl anderer Datenströme verarbeiten. Bei vermaschten und teilvermaschten Netzen läßt sich darüber hinaus untersuchen, wie effektiv Datenströme auf mehrere zum Ziel führende Wege verteilt werden. Der Tester erhält damit eine Ausage über die Lastverteilung. Auf einzelnen Streckenabschnitten in vermaschten und teilvermaschten Netzen treten Überlastsituationen auf, die sich durch alternative Routen kompensieren lassen. Damit lassen sich Erkenntnisse über Qualität und Leistungsfähigkeit von Rerouting-Algorithmen gewinnen.

Das folgende Beispiel zeigt den TCP-Durchsatz über das gleiche Netzwerk - allerdings mit einem Equipment, das sich auf dem Stand von 1998 befindet. Zusätzlich belasten 14 Endsysteme die beiden Ethernet/ATM-Interworking Units (IWUs) (Bild 5). Die Randbedingungen entsprechen denen der vorherigen Messung. Außerdem ist definiert, daß alle 15 Clients die gleichen TCP-Pakete zur gleichen Zeit senden. Ergebnis: Bei Belastung der IWUs geht der Durchsatz um circa zwei Mbit/s zurück.

Bei dieser Konstellation gewinnt auch noch ein anderer Aspekt an Bedeutung: Wie "fair" verteilt die IWU ihre Kapazität an die angeschlossenen 15 Systeme? Bleibt sie auch fair, wenn die Clients mit unterschiedlichen Paketgrößen senden?

Normen schützen vor Wildwuchs

Die Vielzahl vorstellbarer Szenarien läßt eine Standardisierung von Performanztests kaum zu. Um die Spezifikation von Kommunikationsnetzen bemühen sich eine Reihe von Organisationen, im wesentlichen das ATM Forum, IETF, IEEE, ISO und ITU-T. Sie geben zwar Richtlinien zur Durchführung von Performanztests heraus, diese umfassen aber stets nur einen Teil der vielen Aspekte und schließen eine allgemeingültige Bewertung der Testergebnisse aus.

Benchmark-Tests umschiffen die Klippe einer allgemeingültigen Bewertung, weil sie als Vergleichtests zwischen verschiedenen Geräten nur deren Unterschiede erfassen. Oftmals garniert der jeweilige Autor solche Tests noch mit seiner subjektiven Meinung. Um einen Wildwuchs solcher Benchmark-Tests im Internet-Bereich einzudämmen, hat die IETF, zuständig für die Entwicklung und Spezifikation von LAN- und IP-Protokollen mit den Dokumenten RFC1242, RFC1944 und RFC2285, eine Reihe von Vorgaben erstellt.

Die RFCs sind auf einer Vielzahl von Webservern abgelegt, die, verteilt über die ganze Welt, jeweils nach unterschiedlichen Kriterien sortiert sind. Ein gezielter Link auf die einzelnen Dokumente erscheint daher nicht unbedingt sinnvoll. Aus diesem Grund sei hier auf eine offizielle Adresse für alle RFCs verwiesen, von der aus Links zu einigen ausgewählten Servern führen.

http://www.rfc-editor.org/rfc.html. Die Dokumente des ATM Forums sind generell nur seinen Mitgliedern zugänglich. Das EANTC bietet einen Mirror-Server für alle Dokumente des ATM Forums an. Zugreifen kann jede Person, deren Arbeitgeber Mitglied im ATM Forum ist, sofern sie sich beim EANTC die entsprechenden Dokumente freischalten läßt. Es ist zu beachten, daß Dokumente, die nicht den Status "Approved Specification" besitzen, ständigen Veränderungen unterliegen. Die URLs lauten http://www.eantc.de/Documents/Stan dards/ATM-Forum/test-perf-priv.html. Mitgliedern im ATM Forum steht zudem die URL www.atmforum.com zur Verfügung. (ch)

Literatur

IEFT-RFC 1242: Benchmarking Terminology for Network Interconnect Devices; 1991.

IEFT-RFC 1944: Benchmarking Methodology for Network Interconnect Devices; 1996.

IEFT-RFC 2285: Benchmarking Terminology for LAN Switching Devices; 1998.

ATM Forum: ATM Forum Performance Testing Draft; Juli 1998.

ATM Forum: Draft UNI Signalling Performance Test Suite; Juli 1998.

Weblinks

OSI Conformance Testing:

www.iso.ch/isob/switch-engine-

cate.pl?searchtype=refnumber&KEYWORDS

Christian Garbrecht war bis Ende September wissenschaftlicher Mitarbeiter am EANTC der TU Berlin. Er war dort verantwortlich für die technische Koordination der Testsuite-Entwicklung. Zwischenzeitlich ist Garbecht zur Deutsche Telekom Berkom GmbH gewechselt, wo er im Bereich ATM/IP-Dienste tätig ist.