Rasanter Datentransfer von Punkt zu Punkt

05.04.2002
Nicht die Prozessoren werden mehr und mehr zum "Flaschenhals", sondern die Transportwege innerhalb von Servern oder Speichermedien. Mit Infiniband tritt eine neue Input/Output-Architektur an, die diese Engstellen beseitigt.

Von: Harald Hammerl

Schenkt man den Aussagen der diversen Marktforscher und Hersteller Glauben, werden mittlerweile Millionen von Terabyte an Daten auf und zwischen Servern, Speichereinrichtungen und Anwendungen hin und her transportiert. Für die gängigen Netzinfrastrukturen stellen diese Datenmengen kein Problem dar. Fast- und Gigabit-Ethernet oder Fibre Channel bieten in der Regel ausreichende Übertragungsraten. Vielmehr ist die Schnittstelle im Rechner der Engpass, über welche die Daten verarbeitet und zwischen den Medien übertragen werden. "Infiniband" soll hier Abhilfe schaffen. Es handelt sich hierbei um eine neue I/O-Infrastrukturtechnik (Input/Output), mit der sich auf einfache Weise schnelle Verbindungen zwischen Servern oder Speichersystemen aufbauen lassen.

Unabhängig von herstellerspezifischen Protokollen und entsprechender Hardware soll die neue Technologie den Aufbau von geclusterten und verteilten Datenbanken ermöglichen und auf diese Weise die Ausfallsicherheit und Skalierbarkeit erhöhen. Laut Definition wurde Infiniband unter anderem deshalb entwickelt, um Nachrichten fehlerfrei über mehrere Kanäle parallel zu übertragen. Ziel ist auch die Unterstützung intelligenter I/O-Controller, schneller Switches sowie eine allgemeine Leistungsverbesserung.

Schnelle serielle Verbindungen

Infiniband ist ein Konzept für die Höchstgeschwindigkeits-Datenkommunikation, das auf einer seriellen Punkt-zu-Punkt-Verbindung basiert. Das Verfahren stellt nicht nur eine Highspeed-Schnittstelle für externe Massenspeicher zur Verfügung, sondern soll den PCI-Bus (Peripheral Component Interconnect) ersetzten und nach außen verlängern. So kann darüber beispielsweise ein Server im DMA-Modus (Direct Memory Access) direkt auf den Speicher eines anderen Systems zugreifen. Zugleich definiert Infiniband auch eine Verwaltungs- und Managementstruktur der damit aufgebauten Netzwerke, so genannter Fabrics.

Das Konzept "Infiniband" wurde von namhaften Computerfirmen entwickelt, die sich in der Herstellervereinigung Infiniband Trade Association (IBTA) zusammenfanden. Der Brancheninitiative gehören unter anderem Compaq, Dell, Intel, IBM, Hewlett-Packard, Hitachi, Microsoft und Sun an. Ähnlich wie Fibre Channel lässt sich Infiniband auf Glasfaser und Kupferkabeln (TP, Twisted Pair) betreiben. Die Punkt-zu-Punkt-Verbindung arbeitet vollduplex mit einer nominellen Übertragungsrate von 2,5 GBit/s.

Neben dieser Standard-Datenrate "1X" wurden zwei weitere Übertragungsgeschwindigkeiten definiert: 4X und 12X. Parallel zur Geschwindigkeit erhöht sich im gleichen Umfang die Anzahl der eingesetzten Anschlüsse und Leitungen. Kommen bei 1X zwei mal zwei, sprich vier Drähte zum Einsatz, sind es bei 4X (für 10 GBit/s) vier der zwei Duplexkanäle, also 16 Pins und schließlich 48 Leitungen bei 12X für eine Signalrate von 30 GBit/s. Der Nettodurchsatz in jeder Richtung liegt bei etwa 80 Prozent der Nennleistung, womit sich im Vollduplex-Betrieb realistische Werte von 48 GBit/s erreichen lassen. Die Entfernungen für eine Verbindung können 1000 Meter und mehr betragen.

Komponenten von Infiniband

Auf den Webseiten der Hersteller sind die Netzwerkkomponenten beschrieben, die das Infiniband-Konzept vorsieht: Host Channel Adapter (HCA), Target Channel Adapter (TCA), Switches und Router. Vereinzelt taucht in den Beschreibungen mit dem "Subnet Manager" eine fünfte Komponente auf. Diese Anwendung ist verantwortlich für die Konfiguration des lokalen Subnetzes und garantiert dessen ständige Verfügbarkeit.

Der HCA sitzt als Schnittstelle im Server mit direktem Zugriff auf dessen Speicher und Prozessor. Außerdem kommuniziert der Host Channel Adapter mit der Infiniband-Fabric. Der HCA ist für den Transport der Daten verantwortlich, ermöglicht einen erweiterten Speicherzugriff und gleicht Übertragungsfehler aus. Als PCI-to-Infiniband-Karte oder als direkt auf dem Motherboard integrierte Lösung kommuniziert der HCA mit dem Target Channel Adapter oder den Switches.

Der TCA erlaubt es, unabhängig von einem Host-Computer I/O-Geräte wie Platten- oder Bandspei-chermedien ins Netzwerk einzubinden. Laut Spezifikation besitzt jeder TCA einen eigenen I/O-Controller, der das Protokoll des jeweiligen Geräts, beispielsweise SCSI, Fibre Channel oder Ethernet, übersetzt. Die Schnittstelle ist in der Lage, direkte Verbindungen zu Switches und HCAs aufzubauen.

Der Switch in einem Infiniband-Netzwerk lässt sich mit einem Verkehrspolizisten auf einer großen Kreuzung vergleichen. Er ermöglicht HCAs und TCAs die direkte Verbindung und regelt gleichzeitig den Datenverkehr im Netzwerk. Er kontrolliert den "Local Route Header" jedes Datenpakets, das ihn passiert und leitet es an die entsprechende Komponente weiter, womit er Server und andere Geräte entlastet. Switches sind die kritischen Komponenten in einem Infiniband-Netzwerk: Sie sind maßgeblich für die hohe Verfügbarkeit, die höheren Durchsatzraten, den Lastausgleich, die Datenspiegelung und vieles mehr verantwortlich. Der Verbund mehrerer Switches wird als Fabric bezeichnet, deren Leistungsfähigkeit im gleichen Maß zunimmt, wie Switches integriert werden.

Für den Transport der Datenpakete von einem lokalen Netzwerk (auch Subnet) zu anderen externen Subnetzen ist der Router zuständig. Dazu liest er die "Global Route Header" und leitet die Pakete entsprechend der im IPv6 beschriebenen Network Layer Address weiter. Zudem baut er jedes Paket mit dem aktuellen "Lokal Address Header" neu auf, wenn er es in das neue Subnet transportiert.

Jede Komponente hat einen oder mehrere Ports und lässt sich über eine Geschwindigkeitsklasse mit einem anderen Gerät verbinden. So kann beispielsweise ein HCA mit einem Switch kommunizieren, der seinerseits über HCAs Zugang zu Ein-/Ausgabegeräten hat. Der Host Channel Adapter ist dadurch in der Lage, Verbindung zu mehreren TCAs aufzunehmen, wodurch Multipunkt-Verbindungen möglich sind.