Der Starke fürs Office

06.10.2000
Mit Bravour bestand der Workgroup-Switch von 3Com alle Durchsatz- und Latenztests. Lediglich beim Head-of-Line-Blocking zeigte er Schwächen.

Von: H. Almus, Inti Florez-Brandel, Dr. Klaus Plessner

Im Frühjahr verabschiedete sich 3Com aus dem Bereich LAN-Switches für große unternehmensweite Netze und beendete die Produktion der Reihe "Corebuilder". Auch von den Analog-Modems und den Weitverkehrs-Switches der Serien "Pathbuilder" und "Netbuilder" trennte sich das Unternehmen, um sich auf gewinnträchtigere Segmente zu konzentrieren. Man stützt das neue Geschäft auf die drei Säulen Kabelmodems für Heimanwender, Switches für kleine und mittlere Unternehmen und IP-Telefonie für Carrier. Mit Erfolg, wie es scheint. Denn im letzten Quartalsbericht für die Monate Juni bis August führt der Hersteller hohe Gewinne der Business-Unit "Commercial and Consumer Networks" auf die Umstrukturierung zurück.

Nach wie vor im Sortiment sind die Switches der Familie "Superstack II", mit denen 3Com Firmen mit bis zu 1000 Mitarbeitern adressiert. Zwischen den Workgroup-Geräten der Reihe "3300" und den Backbone-Switches der 9000er-Riege rangiert der getestete "Super-stack II 3900", ein Workgroup-Switch mit einem Gigabit-Ethernet-Port für die Anbindung zum Firmen-Backbone. Der Layer-2-Switch ist mit 36 10/100-Base-TX-Ports ausgestattet und nimmt zwei Zusatzmodule mit 1000-Base-SX-Ports auf. Ganz im Gegensatz zu dem, was der Name suggeriert, ist Superstack II 3900 nicht "stackable" im üblichen Sinn, also durch ein SCSI-Kabel zu verbinden. Allerdings lassen sich bis zu vier Geräte über ihre Gigabit-Uplinks so verbinden, dass sich eine Kombination mit 144 Fast-Ethernet-Ports und 6 Gigabit-Ports ergibt. Dabei ist die Uplink-Performance zwischen den Geräten selbstverständlich auf ein GBit/s begrenzt.

Über die Funktion "Link Aggregation" kann der Anwender die drei Gigabit-Kanäle zusammenschalten, um die Kapazität der Verbindung mit dem Backbone-Switch zu erhöhen. Das Gerät priorisiert wie üblich nach der IEEE-Norm 802.1p und entbehrt keiner der Standardfunktionen. Darüber hinaus soll das proprietäre Verfahren "Pace Interactive Access" so genannte "Jitter-Effekte" verhindern, die bei starken Schwankungen der Paketübertragungszeit auftreten. Die Technik "Resilient Links" von 3Com erlaubt es dem Anwender, Paare aus Haupt-Ports und Reserve-Ports zu definieren. Die Reserve ist normalerweise inaktiv und übernimmt das Switching, sobald der Haupt-Port ausfällt.

Unsere Tests führten wir mit dem Ethernet-Tester "Ixia 1600 Traffic Generator/Performance Analyzer" durch, der mit 20 Fast-Ethernet- und acht Gigabit-Ethernet-Ports bestückt war. Weil das Verhalten der Kopplung mehrerer Geräte durch Gigabit-Uplinks bereits mit Hilfe der üblichen One-to-Many-Checks zu prüfen ist, testeten wir nur einen Switch. Dabei hatten wir wie üblich die zusätzlichen, also nicht geprüften Protokolle "Flowcontrol", "Spanning Tree" (STP) und Autonegotiation abgeschaltet. Wir prüften nach folgenden Teststandards:

- Request for Comment (RFC) 2544: One-to-One-Durchsatz und Latenzzeiten;

- RFC 2285: Durchsatz der Konfigurationen Many-to-Many, Many-to-One, One-to-Many, Broadcasting und Head-of-Line-Blocking.

Außerdem untersuchten wir

- Class-of-Service (COS) nach IEEE 802.1p: Durchsatz unterschiedlich priorisierter Pakete bei Überlast;

- Multiport-Automation: Interframe-Gap-Test.

Zunächst testeten wir nach RFC 2544 und schalteten 20 Ports eins zu eins mit den Ports des Prüfgeräts zusammen, und zwar in symmetrischer Reihenfolge, also beginnend mit dem jeweils ersten Port beider Geräte. Im ersten Durchgang ließen wir die Frames so laufen, dass Paare benachbarter Ports in beiden Richtungen (bidirektional) Pakete austauschten. Also Port 1 mit Port 2, Port 3 mit Port 4, et cetera.

Keine Paketverluste

Danach untersuchten wir eine zweite One-to-One-Konfiguration, weil der Switch seine 36 Fast-Ethernet-Ausgänge auf mehrere Baugruppen aufteilt. Erfahrungsgemäß treten beim Switchen zwischen Baugruppen hin und wieder Performance-Schwächen auf. Um die Grenzen der Baugruppen zu überschreiten, prüften wir deshalb die Port-Kombinationen "1 mit 11", "2 mit 12" und so weiter. Die Testdauer betrug zehn Sekunden bei einer Geschwindigkeit von 100 MBit/s und den Frame-Größen 64, 128, 256, 512, 1024, 1280 und 1518 Byte.

Die Ergebnisse des Durchsatztests waren durchweg positiv. Denn sowohl bei den Kombinationen benachbarter Ports als auch bei der Baugruppen-unabhängigen Konfiguration verlor der Switch kein einziges Paket.

Anschließend nahmen wir die Latenzzeiten unter die Lupe und betrachteten folgende bidirektionale One-to-One-Kombinationen der Superstack-Ports:

- 20 paarweise kombinierte Fast-Ethernet-Ports;

- zwei Gigabit-Ethernet-Ports;

- ein Fast-Ethernet-Port und ein Gigabit-Ethernet-Port.

Bei allen Tests glänzte der Switch mit kurzen Latenzzeiten. Zwar lagen die Werte bei 100-prozentiger Auslastung der Ports bei den ersten beiden Aufbauten deutlich höher als bei einer 90-prozentigen Beanspruchung. Dennoch stellen sie keine gravierenden Nachteile dar. Hervorragend sind die Latenzzeiten bei der letzten Kombination "Fast-Ethernet-Port mit Gigabit-Ethernet-Port", die sich auch von einer Vollauslastung nicht beeindrucken ließ.

Jeder mit Jedem

Bei Many-to-Many-Durchsatztests waren das Prüfgerät und der Switch so eingestellt, dass jeder Port an jeden sandte und von jedem empfing. Die Kabel verbanden wie bei den One-to-One-Tests jeweils Ports derselben Nummer. Auch hier bewies das Gerät eine sehr hohe Stabilität gegenüber den Belastungen. Einbußen bei größeren Paketen dürften sich auf die Praxis kaum auswirken. Und überdies lassen sie nicht auf Schwächen der Engine schließen, weil kleinere Pakete das Gerät weit mehr fordern und nicht verloren gingen.

Ganz ohne Paketverluste liefen die Many-to-One- und One-to-Many-Szenarien ab. Sie prüften, wie gut der Switch das Gigabit-Uplink mit den Fast-Ethernet-Ports verbindet. Es wurden jeweils zehn Fast-Ethernet-Ports in einer Richtung (unidirektional) auf einen Gigabit-Ethernet-Ausgang geswitcht (Many-to-One) beziehungsweise der Gigabit-Port in der anderen Richtung mit zehn Fast-Ethernet-Ausgängen kombiniert (One-to-Many). Jeder der Fast-Ethernet-Ports erhielt ein Zehntel der Last des Gigabit-Ports, damit sie nicht überlastet wurden.

Der "Broadcast-Forwarding"-Betrieb diente der Bestimmung von Durchsatzraten des Superstack beim Broadcasting. Dazu musste der Switch die auf einem bestimmten Port eingehenden Frames auf alle anderen Ports ausgeben. Der 3Com-Switch bietet die Möglichkeit, den Broadcast-Verkehr einzuschränken. Zu jedem Port kann der Anwender eine maximale Zahl von Frames angeben, die in einer Sekunde passieren dürfen. Dabei hat er die Wahl zwischen 0 und 200000 Paketen, was bei einer maximalen Paketrate von 148 810 auf Fast-Ethernet-Ports einer Begrenzung zwischen 0 und 100 Prozent gleichkommt. Wir wählten dieselbe Konfiguration wie bei One-to-Many. Port 1 versendete seine Frames an die 19 übrigen Ports. Um die Funktion der Limitierung zu testen, konfigurierten wir jeweils fünf Durchgänge mit 5000 Paketen pro Sekunde (pps), 20000 pps, 50000 pps, 100000 pps und ohne Begrenzung. Die Belastung mit Frames blieb konstant bei 100 Prozent.

Ohne Begrenzung transportierte der Switch alle Pakete wie gewünscht. Ansonsten zeigt das Ergebnis die Funktionsweise der Limitierung. Kleine Pakete sind von den Grenzen stärker betroffen als große, weil bei konstanter Auslastung in der Sekunde von Haus aus rund 15-mal weniger 1280-Byte-Frames als 64-Byte-Pakete passieren.

Service nach Klassen

Mit Hilfe der Priorisierung (nach IEEE 802.1p) garantiert der Switch ein Maß an Quality-of-Service. Dem Ethernet-Frame wird dabei ein so genanntes "Tag" beigefügt, das neben der VLAN-Zuordnungsnummer (VLAN = Virtual Local Area Network) drei Bits für acht verschiedene Prioritätsstufen frei lässt. Damit kann der Anwender den Paketen zeitkritischer Applikationen den Vorzug geben, so dass sie bei Überlast weniger Verluste erleiden als andere Frames.

Beim Superstack wählt man die Service-Klassen in Form von Verhältnissen zwischen Prioritätsstufen jeweils zweier Queues. Möglich sind acht verschiedene Relationen:

- 12 Prozent Queue 1 zu 88 Prozent Queue 2,

- 25 Prozent zu 75 Prozent,

- 38 Prozent zu 62 Prozent,

- 50 Prozent zu 50 Prozent,

- 63 Prozent zu 37 Prozent,

- 75 Prozent zu 25 Prozent,

- 88 Prozent zu 12 Prozent und

- 100 Prozent zu 0 Prozent.

Im Test wurde Port 2 durch "getaggte" Frames von den Ports 1 und 3 gezielt überlastet, damit die Priorisierung zwischen Port 1 und Port 3 ihre Wirkung zeigte. Die zehn Sekunden dauernden Versuche bestätigten die Theorie bestens und offenbarten Paketverluste jeweils zugunsten der hochpriorisierten Frames.

Die gängige Switch-Funktion "Head-of-Line-Blocking" (HOLB) soll verhindern, dass "unterbeschäftigte" Ports durch eine Überlast auf anderen Ports beeinträchtigt werden. Ist zum Beispiel Port 2 mit Frames von Port 1 zu 100 Prozent eingedeckt, verwirft das HOLB-Verfahren alle Frames, die Port 3 an Port 2 schickt, weil Port 3 gleichzeitig Pakete auf den nicht überlasteten Port 4 schickt. Die Folge ist, dass die Queue des dritten Ports nicht durch wartende Frames blockiert wird und ungehindert nach Port 4 switchen kann. 3Com hat auf die HOLB-Funktion verzichtet, weshalb unsere diesbezüglichen Tests schlecht ausfielen und zu einer starken Beeinträchtigung der unbelasteten Ports führten. Wir notierten Verluste von bis zu 95 Prozent bei Paketen der Größe 1024 Byte. Kleine Pakete richteten einen geringeren Schaden an und verursachten Verluste von rund 20 Prozent. Inwieweit sich der Mangel in der Praxis auswirkt, bestimmt die Puffergröße des Switch. Wenn nur kurze Bursts den HOLB-Effekt verursachen, werden Frames auf dem blockierten Port zwischengespeichert.

Zur Person

Herbert Almus

ist Leiter des European Advanced Network Test Center (EANTC), das unter anderem unabhängige Tests von Netzwerkequipment durchführt.

Inti Florez-Brandel

ist seit Anfang 2000 bei der EANTC AG beschäftigt. Sein Spezialgebiet ist die Durchführung von Performance- und Dienstgütemessungen für verschiedene Switching-Technologien.