Unterschiede auf den zweiten Blick

Performance als 10/100-MBit/s-Bridge/Switch

Dabei sollte sich der Anwender vor Augen halten, daß der maximale Durchsatz nur bei einer kollisionsfreien Belastung erreicht wird, also beispielsweise durch Senden mit maximaler Framerate von einem einzelnen Port aus. Weil alle an einen Hub angeschlossenen Systeme gleicher Technologie (10 MBit/s beziehungsweise 100 MBit/s) jeweils einer gemeinsamen Kollisionsdomäne angehören, kann bei einem derartigen Test auch die maximale Performance erreicht werden. Senden mehrere Systeme gleichzeitig, treten wie auf einem Ethernet-Bus Kollisionen auf, welche die nutzbare Bandbreite reduzieren. Dies ist jedoch eine systembedingte Eigenschaft von Ethernet und stellt somit keinen Mangel der Hubs dar. Eine höhere Performance läßt sich nur erzielen, wenn man die Kollisionsproblematik durch Switchen der einzelnen Ports umgeht.

Für Repeater, die bekanntlich die Information auf Bitebene weiterleiten (Bit forwarding Devices), ist in der Norm RFC 1242 die Latenzzeit definiert. Sie ist die Zeit zwischen Eintreffen des Endes des ersten Bits am Eingangsport und dem Eintreffen des Bits auf dem Ausgangsport. Die Latenzzeit ist somit unabhängig von der Größe der gesendeten Frames (Grafik "Latenzzeiten in µs").

Genau wie in der Disziplin "Durchsatz" unterscheiden sich die getesteten Systeme auch hinsichtlich der Latenzzeiten praktisch nicht: Die Streuungen liegen im Bereich der Auflösung unserer Meßgeräte und damit bei 0,2 µs. Diese Werte sind absolut bedeutungslos.

Die Testgeräte von 3Com, Allied Telesyn, Bay Networks und Intel verfügen über eingebaute Switch- beziehungsweise Bridgefunktionen für den Übergang zwischen Ethernet und Fast-Ethernet. Diese Geräte unterzogen wir einem erweiterten Meßprogramm, um ihren Durchsatz zu prüfen. Dabei wurden jeweils mehrere Portpaare parallel betrieben: Wir ließen die Geräte in mehreren Testläufen einmal ihre Daten von den 10-MBit/s-Ports zu den 100-MBit/s-Ports senden und einmal in die entgegengesetzte Richtung.

Diese Messungen förderten einen interessanten Unterschied zutage: Während in der Richtung - von den 10-MBit/s-Ports zu den 100-MBit/s-Ports sämtliche Geräte wieder absolut identische Meßergebnisse produzierten, war das bei der Messung in Gegenrichtung nicht der Fall. In der Richtung von den "langsamen" zu den "schnellen" Ports waren die Ergebnisse deshalb gleich, weil sämtliche Kandidaten die Grenze des physikalisch Machbaren erreichten - mehr Daten können schon deswegen nicht über die Strecke laufen, weil Ethernet einfach nicht schneller ist. Die getesteten Hubs zeigen also ein ideales Verhalten und stellen in keiner Weise eine Datenbremse dar. Das ist sicherlich ein sehr erfreuliches Ergebnis.

In Gegenrichtung, also beim Senden der Daten von den 100-MBit/s-Ports zu den 10-MBit/s-Ports, wird hingegen der theoretische Durchsatz nicht ganz erreicht. Problematisch ist dabei das Zwischenpuffern und Sequentialisieren der von den 100-MBit/s-Ports empfangenen Frames. Bereits die Testdurchführung ist kritisch, weil bei dem eingesetzten Testequipment die Last pro Port nur in ganzen Prozenten angegeben werden kann. Und ein Prozent von 100 MBit/s bei fünf Portpaaren führt immerhin schon zu einer 50prozentigen Last auf dem 10-MBit/s-Segment. Damit sind durchsatzmindernde Kollisionen wahrscheinlich, denn 50 Prozent entsprechen bei Ethernet bereits einer ungewöhnlich hohen Auslastung. Außerdem stößt bei dieser Messung das Prüfgerät an seine Grenzen: Es beginnt die Messungenprogrammgesteuert mit einem vorgegebenen Minimalwert und bricht die Messung automatisch ab, falls es schon bei diesem Minimalwert zu Verlusten kommt. Damit waren bei zwei Hubs die Durchsatzwerte für fünf Port-Paare nicht zu ermitteln. Wir verringerten dann die Anzahl der beteiligten Port-Paare bis für alle Framegrößen ein Durchsatzwert gemessen werden konnte.

Bei zwei Hubs, nämlich dem Baystack 250 und dem Intel Express 220T, maßen wir identische Werte. Das muß nicht heißen, und heißt es im vorliegenden Fall auch nicht, daß es sich um baugleiche Geräte handelt. Wahrscheinlicher ist es, daß die Schritte, in denen wir die Meßgrößen veränderten, zu groß waren, um auch noch die minimalen Unterschiede bei den Testkandidaten zu erfassen.

Jeder Port hat somit mit etwa 1,7 bis 1,8 Prozent der 100-MBit/s-Bandbreite gesendet. Bis in den Bereich von knapp 90 Prozent der Last sind die beiden Hubs also in der Lage, den auf den fünf Ports parallel generierten Verkehr durch Zwischenpuffern ohne Verluste auf das 10-MBit/s-Segment zu übertragen.

Geringfügig schlechter schnitt der Hub von 3Com ab. Weil er bei fünf aktiven Ports immer bei genau einer der anfänglichen Messungen pro Framegröße zwei bis drei Frames verlor, konnte aufgrund der Eigenart des Prüfgeräts der Durchsatz bei fünf Portpaaren nicht für alle Framegrößen ermittelt werden. Wie sich jedoch zeigte, sind die Werte bei den Messungen, die keine Frameverluste zu verzeichnen hatten, wieder völlig identisch mit denen der Hubs von Bay und Intel. Es kann daher nicht ausgeschlossen werden, daß der Grund für die Abbrüche in der spezifischen Testausführung im Zusammenspiel von Netcom-Tester und Prüfling liegt. Reduziert man die Zahl der aktiven Portpaare auf vier, so lassen sich sinnvolle Meßergebnisse erzeugen. Der Hub von Allied Telesyn liefert gar nur mit zwei aktiven Portpaaren verwertbare Meßwerte für alle Framegrößen.

Weil es sich bei dem Übergang zwischen den beiden Technologien um eine Layer-2-Vermittlung handelt, sind die Geräte betreffs dieser Funktion sogenannte "Store-and-forward Devices". Für derartige Geräte definiert der RFC 1242 die Latenzzeit als die Zeit zwischen dem Eintreffen des letzten Bits eines Frames am Eingangsport und dem Eintreffen des ersten Bits des Frames am Ausgangsport. In bezug auf den Übergang zwischen den beiden Segmenten verwenden die technischen Beschreibungen der Hersteller sowohl den Ausdruck "Bridge"- wie auch "Switch"-Module. Ansonsten bestätigten unsere Messungen die solide Konzeption sämtlicher Testgeräte: Die Latenzzeiten sind praktisch nicht lastabhängig. Außerdem liegen die Meßwerte für alle Geräte extrem dicht beisammen. Bei maximaler Paketgröße und Vollast liegen beispielsweise das "schnellste" Gerät (3Com Superstack II) nur um Haaresbreite vor dem "langsamsten" (Baystack 250). Während der Superstack II die Datenpakete um 1205,7 µs verzögert, benötigt der Baystack 250 1208,36 µs. Das entspricht einer Differenz von 0,24 Prozent. Ähnlich sieht die Lage bei allen Auslastungsgraden und Paketgrößen aus. Hier von Gewinnern oder Verlierern zu sprechen, dürfte dem sprichwörtlichen Spalten von Haaren gleichkommen.