CERN: 200.000 PCs in einem Grid

200.000 PCs in einem Grid

Neben den Plattensystemen stehen 460 Pentium-3- und Pentium-4-Prozessoren mit etwa 900 GFlop/s (Milliarden Rechenoperationen pro Sekunde) Spitzenleistung bereit. Auch ihre Zahl soll sich noch im Jahr 2003 verdoppeln. Für das Jahr 2008, wenn die ersten Messdaten vom LHC-Projekt ankommen, wird GridKa erheblich größer sein. Klaus-Peter Mickel, Leiter des IWR am Forschungszentrum Karlsruhe, rechnet mit etwa 23.000 PCs, 1,4 Petabyte Platten- und 3,5 Petabyte Bandspeicher. Auf die zehn Rechenzentren der Ebene 1 bezogen, summiert sich die Zahl der PCs auf mehr als 200.000.

Diese Rechner sollen dem Forscher der Ebene 4, der die LHC-Daten analysiert, wie ein einziger Rechner erscheinen. Bei diesem virtuellen System weiß er natürlich nicht, wo die Daten und die Auswertungsprogramme lagern und wo sein Job bearbeitet wird. Das ist Grid-Computing in Reinkultur. Die Beteiligten müssen daher bis 2008 die Middleware auf der Basis offener Software so gestalten, dass dieses Vorgehen tatsächlich möglich wird. Auch müssen 200.000 PCs und 15 Petabyte verwaltet werden.

Schon im Frühjahr 2003 kündigten CERN und IBM eine Kooperation im Openlab für DataGrid-Anwendungen an. Sie arbeiten an einer Speichervirtualisierung, Dateiverwaltung und einem Dateisystem, die diese Dimensionen unterstützen. Die IBM Labs entwarfen Storage Tank, das viele und riesige Dateien unabhängig vom Lagerort und Betriebssystem verwaltet. Gemeinsam erweitern sie das System für einen weltweiten Zugriff auf ein beliebiges Rechenzentrum.