8,9 TFlops/s: Europarekord aus Jülich

01.04.2004 von UWE HARMS 
Der schnellste Supercomputer Europas geht derzeit in Jülich an den Start. 1312 Power4+-Prozessoren in 41 Knoten aus p690-Regattas von IBM bieten 8,9 TFlop/s und bringen Deutschland in die Top20 zurück.

Im Februar 2004 eröffnete das Forschungszentrum Jülich (FZJ) offiziell den Betrieb des neuen IBM-Supercomputers. Mit 8,9 TFlops/s wird er der schnellste Rechner in Europa sein und weltweit unter den Top20 agieren. Da das Zentrum aufgrund des Platzbedarfs und der nötigen Klimatisierung ein neues Technikgebäude für das ZAM (Zentralinstitut für Angewandte Mathematik) bauen musste, kann IBM den Rechner nur in einzelnen Stufen liefern. Derzeit besteht das System aus 30 IBM p690 Knoten, die IBM planmäßig zum Jahreswechsel installierte.

Bis Ende März will IBM das Gesamtsystem auf 41 Knoten mit 1312 Prozessoren ausbauen. Die aggregierte Spitzenleistung liegt dann bei 8,9 TFlop/s (Billionen Rechenoperationen pro Sekunden), der gesamte Hauptspeicher beträgt 5,2 TByte (Billionen Byte).

Details zum ZAM-System

Jeder der 41 p690-Knoten aus IBM-Regatta-Systemen besteht aus 32 POWER4+ CPUs von IBM. Bei 1,7 GHz Taktrate kann der Prozessor maximal vier arithmetische Operationen durchführen.

Die 32 CPUs teilen sich einen gemeinsamen Hauptspeicher von 128 GByte. Ein Knoten leistet theoretisch 217,6 GFlop/s (Milliarden Rechenoperationen pro Sekunde).

Als Plattenplatz stehen 56 TByte zur Verfügung, weitere 500 TByte kann das ZAM auf Magnetband auslagern. Damit ist das IBM-Cluster der derzeit schnellste Rechner in Europa und dürfte auf der TOP500-Liste vom Juni 2004 unter den ersten 20 Rechnern liegen.

IBM verbindet die 41 Knoten mit einem schnellen Verbindungsnetzwerk, dem "High Performance Switch". Benutzt ein Programm mehrere Knoten, kann es über ihn sehr schnell Nachrichten austauschen. ZAM ist das erste große Zentrum, das diese Technologie nutzt.

Erstes deutsches HLRZ

Die Geschichte des Höchstleistungsrechenzentrums (HLRZ) reicht bis ins Jahr 1987 zurück. Gegründet wurde es vom Forschungszentrum Jülich, dem DESY (Deutsches Elektronensynchrotron, Hamburg) und der damaligen GMD (Gesellschaft für Mathematik und Datenverarbeitung). Es stand vorrangig Physikern, Chemikern und anderen Forschern aus Deutschland nach einer positiven Begutachtung ihrer Projekte zur Verfügung.

Mit dem HLRZ wurden die föderalen Bundeslandgrenzen geschickt umgangen und ein bundesweites Projekt gestartet. Denn auch heute noch muss etwa ein Wissenschaftler der Universität Hannover für die Nutzung des Landeshöchstleistungsrechners in Bayern bares Geld bezahlen.

Nachdem die GMD im Juli 1998 aus dem HLRZ ausgestiegen war, gründeten DESY und das FZJ mit dem ZAM das John-von-Neumann-Institut für Computing (NIC). Die Partner bieten 50 Prozent der Rechenkapazität Forschern in Deutschland an. Der Rest ist für das Forschungszentrum Jülich selbst sowie für industrielle Anwender und Projekte bestimmt. Ein wissenschaftlicher Rat analysiert die eingereichten Anträge auf Rechenzeit fachlich und weist ihnen Rechenzeit zu.

Der Bedarf in der deutschen Forschungslandschaft nach Supercomputerleistung ist sehr groß. Am 10. Februar startete das NIC den offiziellen Benutzerbetrieb mit dem IBM-Supercomputer und informierte seine Anwender um 9.00 Uhr per E-Mail. Schon eine Stunde später war das System zu 75 Prozent ausgelastet.

Warum Supercomputer

Früher waren die Forscher auf Theorie und Experiment angewiesen, um Ergebnisse zu finden. Heute erweist sich die Computersimulation als dritte Säule, wenn Experimente zu aufwändig sind oder die Theorie, beispielsweise Differentialgleichungen, nicht exakt lösbar ist. Mit wachsender Leistung können die Wissenschaftler die simulierten Modelle verfeinern oder mit unterschiedlichen Eingabedaten rechnen. Daraus gewinnen sie eine Vorstellung für das Verhalten des simulierten Systems.

Eine Problemstellung dabei wird zunächst in ein physikalisches oder mathematisches Modell umgesetzt und als Programm auf einem Rechner implementiert. Hierzu sind gute mathematische Kenntnisse der Algorithmen und deren Fehlerabschätzung nötig, um Abweichungen vom exakten Modell zu berücksichtigen. Nach dem Durchlauf überprüft der Wissenschaftler die Ergebnisse, stellt die Fehler fest und verbessert das Modell. Wenn die Ergebnisse hinreichend stabil und konform mit der Praxis sind, kann er unterschiedliche Aufgaben mit der gleichen Fragestellung bearbeiten.

Ein Beispiel ist der Strömungswiderstand eines Autos. Man beginnt mit einem Prototypen und verbessert das Design sukzessive durch viele Computerläufe. Bei DaimlerChrysler beträgt die Laufzeit eines solchen Jobs auf einem IBM p690-Rechner zwei bis vier Tage. Ein Höchstleistungsrechner reduziert durch höhere Taktraten und eine Parallelisierung über Knoten hinweg diese Zeit auf einen halben Tag. Dadurch wird die optimale Autoform schneller gefunden, das Unternehmen erzielt einen Wettbewerbsvorteil.

Strategische Bedeutung

Auch in der Forschung herrscht ein starker Konkurrenzdruck. Im internationalen Wettbewerb können deutsche Wissenschaftler durch einen Zugriff auf einen Höchstleistungsrechner deutliche Vorteile erzielen. Eine schnelle Workstation reicht in einigen Fällen einfach nicht aus, um komplexe Probleme zu lösen. Aktuelle Workstations sind leistungsmäßig vergleichbar mit einem Spitzen-Supercomputer vor zehn Jahren. Hätte die deutsche Forschung auf Höchstleistungsrechner verzichtet, läge sie bezüglich ihrer Ergebnisse um den gleichen Zeitraum zurück.

Einen weiteren deutlichen Hinweis auf die strategische Bedeutung des Supercomputing findet sich in den USA. Sie spendierten etwa im Jahr 2003 für zivile und militärische Höchstleistungsrechner 847 Millionen Dollar. Wenn man davon ausgeht, dass in Europa jedes Jahr ein neuer Spitzenrechner installiert wird, kommt man lediglich auf eine Summe von etwa 30 bis 40 Millionen Euro. Daher besteht eine große Gefahr, dass die europäische Forschung den Anschluss bei Zukunftstechnologien verliert.

Hauptanwendungsgebiete

Hauptanwendungsgebiete des Supercomputers in Jülich sind Materialwissenschaften, theoretische Chemie, Elementarteilchenphysik, weiche Materie, Umwelt, Lebenswissenschaften, Astrophysik.

Bei der Einweihung von JUMP (JUelich MultiProzessor) startete der Vorstandsvorsitzende des FJZ, Professor Joachim Treusch, einen Computerwettlauf zwischen dem jetzigen Supercomputer, einer Cray T3E, und der neuen IBM mit jeweils 32 Prozessoren. Die Anwendung simuliert die Ausbreitung von Schadstoffen im Grundwasser. Die IBM war um den Faktor 15 schneller. Damit sind feinere Gitter und genauere und schnellere Ergebnisse möglich.

Einen Überblick der vom NIC berechneten Anwendungen bietet diese Broschüre. Sie basiert zwar noch auf der Cray T3E, beschreibt aber sehr informativ die aktuellen Forschungsrichtungen auf den deutschen Supercomputern.

Weitere neue Supercomputer in Europa

Doch nicht nur in Jülich hat man ein neues System installiert. Ende Februar kündigte das Höchstleistungsrechenzentrum Stuttgart (HLRS) das Nachfolgesystem für die bisherigen Cray T3E Parallel- und NEC SX-4-Vektorrechner an. Im März installiert NEC 8 SX-6 Knoten mit insgesamt 64 Prozessoren. Dieses Vektorrechner-Cluster hat eine Spitzenleistung von 0,5 TFlop/s.

Anfang 2005 soll NEC 72 Knoten des Nachfolgerechnersystems der SX-6 liefern und in einem neuen Rechnergebäude aufstellen. Der Rechner soll eine Spitzenleistung von 13 TFlop/s bieten und einen Hauptspeicher von fast 10 TByte nutzen können.

Gegen Ende 2005 will das HLRS zudem noch Cluster auf der Basis von AMD- oder Intel-Prozessoren installieren.

Europas Schnellster steht in Spanien

Der schnellste Rechner Europas und die Nummer 2 weltweit wird derzeit in Spanien geplant. Die spanische Verwaltung baut das nationale Supercomputerzentrum in Zusammenarbeit mit IBM auf. Das Wissenschaftsministerium gibt dafür 70 Millionen Euro verteilt über vier Jahre aus.

Er wird noch 2004 vermutlich in der nordostspanischen Region Katalonien installiert und wahrscheinlich an die Universität Barcelona angegliedert. Die geplanten Leistungsdaten sind beeindruckend, 40 TFlop/s Spitzenleistung und mehr als 20 TFlop/s Anwendungsleistung aus 4500 Prozessoren. Der Gesamtspeicher beträgt 9 TByte, der Plattenspeicher 128 TByte. Das 60 Tonnen schwere Monster wird unter Linux laufen und eine Leistungsaufnahme von 600 kW haben. Spaniens Supercomputer soll zur Simulation des Klimawandels, zur Genforschung und zur Erforschung von Krankheiten wie Alzheimer eingesetzt werden. (ala)