Modularer Switch "6-pack"

Facebooks Vision vom skalierbaren Data Center nimmt Gestalt an

Facebook hat einen modulare und programmierbare Switching-Plattform für seine Hyperscale-Rechenzentren entwickelt und legt das Design im Rahmen des Open Compute Project offen.

Bei der Entwicklung von "6-pack" (so heißt der neue Switch wegen seiner sechs Einschübe) habe Facebook besonderen Wert darauf gelegt, Hardware und Software voneinander zu trennen, schreibt "TechCrunch": Jeder Teil des Systems sei voll programmierbar und gebe dem Konzern damit die Flexibilität, die er brauche. Die Grundlagen für 6-pack hatte Facebook bereits im vergangenen Sommer mit dem ebenfalls als Open Hardware entwickelten Top-of-Rack-Switch "Wedge" und dem speziell darauf abgestimmten Linux-Derivat "FBoss" gelegt.

Der modulare Switch 6-pack von Facebook
Der modulare Switch 6-pack von Facebook
Foto: Facebook

Facebook setzt in seinen Hyperscale-Rechenzentren auf ein neues, besonders flexibles Fabric als Netztopologie. Dabei läuft das komplette Data Center mit einem einzigen Hochleistungsnetz. Es gibt keine herkömmlichen Cluster mehr, sonder nur noch Server-Pods, die alle miteinander verbunden sind. Und genau hier kommt 6-pack ins Spiel, das als Switch nicht mehr oben im Rack, sondern im Fabric selbst sitzt.

Facebook schreibt dazu: "Die 6-pack-Plattform ist der Kern unseres neuen Fabrics und verwendet Wedge als Grundbaustein. Es handelt sich um einen Full-Mesh-, nicht blockierenden, zweistufigen Switch mit zwölf unabhängigen Switching-Elementen. Jedes unabhängige Element kann 1,28 Tbps switchen. [...] Jedes Element fährt sein eigenes Betriebssystem auf dem lokalen Server und ist komplett unabhängig, von den Switching-Aspekten bis hin zur Low-Level-Board-Kontrolle und Kühlung." Das Ganze gibt es in zwei Konfigurationen - eine mit 16x40 GE-Ports an der Vorderseite und 640G (16x40GE) auf der Rückseite; die zweite ist zur Aggregation gedacht und exponiert ihre kompletten 1,28T auf der Rückseite.

Den ganzen Aufwand einer Neuentwicklung "from scratch" musste Facebook notgedrungen selbst betreiben, weil kommerziell erhältliche Lösungen in puncto Geschwindigkeit und Skalierbarkeit zu schwachbrüstig waren. "Die Netzbranche war nicht offen genug", sagt Matt Corddry, Facebooks Director of Hardware Engineering. "Unsere Technologie mit kommerzieller Netzausrüstung zu erweitern und wachsen zu lassen ist schwierig. Wir hatten nicht genug Visibilität und Kontrolle. Viele der kommerziellen Ansätze sind geschlossene Kombinationen aus Software und Hardware."

Mit der Offenlegung der 6-pack-Spezfikationen über das Open Compute Project hat nun theoretisch jedes Unternehmen die Option, sich künftig ein Data Center à la Facebook hinzustellen. "Grundsätzlich sehen wir es als einen Teil unserer Auftrags, die Welt offener und konnektierter zu machen", sagt Corddry. "Das ist kein Geheimauftrag und keine Hidden Agenda, sondern einfach Teil unserer Mission." (mje)