Supercomputer-Rangliste mit den 500 schnellsten Rechnern

Top500 11/2007: Deutscher Supercomputer „JUGENE“ landet auf Platz 2

20.11.2007 von Dr. Norbert Eicker
Die Top-500-Liste der schnellsten Computersysteme der Welt vom November 2007 hat einige Überraschungen parat. Positiv aus deutscher Sicht: Der Supercomputer JUGENE BlueGene/P Solution des Forschungszentrums Jülich landet hinter dem BlueGene/L des Lawrence Livermore National Labs auf Rang 2.

Wie schon in den letzten Jahren, erfolgte die Veröffentlichung der Liste mit den 30 derzeit schnellsten Computern der Welt auch dieses Jahr wieder im Rahmen der Supercomputer Konferenz SC. Diese Konferenz wird jährlich von IEEE und ACM veranstaltet und fand in diesem Jahr in Nevada statt. Die Top-500-Liste erscheint zweimal jährlich; die nächste Ausgabe wird im Juni kommenden Jahres auf der Internationalen Supercomputer Konferenz (ISC) in Dresden präsentiert.

Die offizielle Präsentation der Supercomputer-Rangliste nahm auch dieses Mal wieder Erich Strohmaier von NERSC vor. Strohmaier hat das Ranking vor 1993 gemeinsam mit Hans Meuer und Jack Dongarra ins Leben gerufen. Seitdem erfolgt die Einordnung der Systeme gemäß der Leistung im Linpack-Benchmark.

Die Aufgabe, die es jeweils zu lösen gilt, betrifft sehr große lineare Gleichungssysteme. Wenn dieses konkrete Problem auch nicht unbedingt die typische Aufgabe ist, mit der die aktuellen Supercomputer beschäftigt werden, so ergibt sich aus dem Ergebnis des Benchmarks doch ein gutes Maß für die Leistungsfähigkeit der Maschinen in Hinblick auf die tatsächlichen Anwendungen. Mehr Details zur Problematik der Linpack-Messungen finden Sie in unserem Artikel Supercomputer-Benchmarks.

Das Feld des wissenschaftlichen Höchstleistungsrechnens entwickelt sich sehr lebhaft. Etwa die Hälfte der Maschinen, die es noch in die letztjährige Top-500-Liste geschafft hatten, ist auf Grund fehlender Leistungsfähigkeit mittlerweile nicht mehr verzeichnet. So muss ein System zwischenzeitlich eine Leistung von 5,9 TeraFlops aufweisen – das sind beinahe sechs Billionen (10^12) Fließkommaoperationen pro Sekunde –, um überhaupt noch in der Liste zu erscheinen.

Top-500-Liste: die ersten zehn Plätze der schnellsten Rechner der Welt (Quelle: Top500.org)

Starke Veränderungen sind dabei nicht nur auf den mittleren und hinteren Rängen der Liste festzustellen, sondern durchaus auch im Spitzenfeld der Top Ten. Interessant ist unter anderem, dass sogar in diesen Regionen der zweistelligen Millioneninvestitionen plötzlich neue Mitspieler auftauchen, von denen man vorher wenig oder nichts zu sehen bekam.

Das schnellste System bleibt die BlueGene/L-Installation am Lawrence Livermore National Laboratory. Seit der vorangegangenen Liste wurde das System signifikant ausgebaut. Mit nunmehr 212.992 Prozessoren wurde die Größe des Systems beinahe verdoppelt. Von der mit 596 TFlops theoretisch zur Verfügung stehenden Rechenleistung kann die Linpack-Anwendung immerhin 478 TFlops real umsetzen.

Deutscher Supercomputer auf Platz 2

Eine aus deutscher Sicht positive Überraschung ist dem Forschungszentrum Jülich gelungen. Mit seinem brandneuen BlueGene/P-System konnte es bis auf Platz 2 vorstoßen. In der Geschichte der Top-500-Liste ist dies noch keinem anderen europäischen System gelungen; bisher waren die ersten beiden Plätze entweder für US-amerikanische oder für japanische Maschinen reserviert.

Vor dem Hintergrund, dass es in Europa eigentlich keinen Supercomputerhersteller gibt, ist dies besonders bemerkenswert – und sehr erfreulich: Nachdem bereits der diesjährige Nobelpreis für Physik nach Jülich gegangen ist, können dort nun schon wieder die Sektgläser hervorgeholt werden.

Bei dem in Jülich installierten BlueGene/P-System handelt es sich um die generalüberholte zweite Generation der BlueGene-Architektur. Bereits die erste Generation BlueGene/L IBM dominiert seit einiger Zeit die Top Ten. Die Prozessoren dieser Systeme basieren auf IBMs Power-Architektur. Hier kommt allerdings nicht die mit über 4 GHz getaktete neueste Generation (Power6) zum Einsatz, sondern eine speziell auf Energieeffizienz getrimmte Version der PowerPC-Prozessoren mit recht niedrigen Taktfrequenzen.

JUGENE: Der deutsche Superrechner erreichte einen sensationellen zweiten Platz. (Quelle: www.fz-juelich.de)

Da die verwendeten Speicher und Verbindungsnetzwerke den heute üblichen Geschwindigkeitsstandards entsprechen, ist das gut balancierte und skalierbaren System den Konkurrenzarchitekturen bei der Energieeffizienz um einen Faktor zwei überlegen. Während der einzelne Prozessor nur eine mäßige Rechenleistung aufweist, ist das Gesamtsystem durch die schiere Anzahl an Prozessoren ausgesprochen stark.

Wenn sich das zu behandelnde Problem gut parallelisieren – also in viele unabhängige Teilaufgaben zerlegen – lässt, stellen die BlueGene-Systeme sehr effiziente Maschinen dar. Glücklicherweise fallen die meisten der heutzutage mit Supercomputern behandelten Problemstellungen in diese Klasse.

Beim Übergang von BlueGene/L auf BlueGene/P wurden die PowerPC-Prozessoren mit einem zweiten Kern ausgestattet. Gleichzeitig stieg die Taktfrequenz von bisher 700 MHz leicht auf nun 850 MHz an. Ebenso wurden sowohl am Verbindungsnetzwerk als auch an Speicheranbindung und Cache-Hierarchie Optimierungen vorgenommen.

Die Plätze 3 bis 5

Auf Platz 3 ist der erste neue Standort in den Top Ten zu finden: Das erst in diesem Jahr gegründete "New Mexico Computing Application Center" stößt mit seinem SGI-Altix-ICE-8200-System in die Phalanx der Nationallaboratorien vor, in denen traditionell die großen US-amerikanischen Supercomputer installiert werden. Dieses System basiert auf Quad-Core-Xeon-Prozessoren von Intel und dem proprietären NUMA-link-Netzwerk von SGI.

Auf Platz 4 folgt das erste asiatische System. Das auf den Namen EKA getaufte System steht überraschenderweise nicht in Japan, sondern ist in Indien beheimatet. Auch ist es das leistungsfähigste industriell eingesetzte System. Alle anderen Systeme der Top-20-Liste sind aus öffentlichen Mitteln finanziert. EKA ist im westindischen Pune beheimatet und wird von den "Computational Research Laboratories" betrieben. Dieses Unternehmen ist eine Ausgründung der Tata-Gruppe, eines bedeutenden indischen Mischkonzerns, der unter anderem in den Bereichen Metallverarbeitung, Chemie oder im Automobilsektor aktiv ist.

Das System wurde von HP geliefert und ist das leistungsfähigste klassische Clustersystem der aktuellen Liste. Die Rechenknoten sind, wie auch beim SGI-System, mit Quad-Core-Xeon-Prozessoren ausgestattet. Als Verbindungsnetzwerk dient hier allerdings ein InfiniBand-Netzwerk.

Auch die Maschine auf Platz 5 wurde von HP geliefert und ähnelt dem indischen System sehr stark. Allerdings verfügt es über 512 CPUs weniger, zugleich sind diese nur mit 2,66 GHz im Vergleich zu 3 GHz im EKA aus Indien getaktet. Dieses System ist in Schweden bei einer geheimnisvollen "Government Agency" beheimatet. Die zwei Vertreter dieser Organisation, die sich beide Swendson nennen ließen, wollten sich auf der in Reno einberufenen Pressekonferenz zur Veröffentlichung der Liste jedoch nicht näher dazu äußern, was mit dieser Maschine gemacht werden soll.

Die Plätze 6 bis 10

Die weiteren Plätze auf der Top-10-Liste machen die „üblichen Verdächtigen“ der US-amerikanischen Nationallabors sowie das "Thomas J. Watson Research Center" der Firma IBM unter sich aus. Auf den Plätzen 6, 7 und 9 sind dabei Systeme der Firma Cray zu finden, die beiden anderen Systeme sind wiederum BlueGene/L-Maschinen.

Das im vorigen Jahr auf Platz 2 befindliche System in Oak Ridge landet nun nur noch auf Platz 7 und wurde vom früheren Drittplatzierten, dem Red-Storm-System am Sandia National Laboratory, nach einem Aus- und Umbau überholt. Letzteres belegt nun Rang 6.

Rasanter Abstieg: Voriges Jahr war der Jaguar von Oak Ridge National Laboratory noch Zweiter – jetzt rangiert er auf Platz 7. (Quelle: Top500.org)

Das nächste europäische System ist erst wieder auf Platz 13 zu finden. Dort befindet sich das in der vorherigen Liste noch auf Platz 9 rangierende Mare-Nostrum-System vom Barcelona Supercomputing Center. Auch das System des Leibniz Rechenzentrums in Garching bei München ist aus der Top-10-Reihung herausgefallen und rangiert nun auf Platz 15.

Das erste japanische System mit dem TSUBAME Grid Cluster des Tokyo Institute of Technology muss sich gar mit Rang 16 zufrieden geben. Mit dem britischen HECToR-System in Edinburgh auf Platz 17 sowie dem Tera-10 des französischen "Commissariat a l'Energie Atomique" auf Rang 19 befinden sich noch zwei weitere europäische Maschinen unter den ersten 20.

Die Highlights der Plätze 11 bis 50

Für das "alte" Jülicher BlueGene/L-System hat es in der aktuellen Liste nur noch für Platz 28 gereicht – ein Umstand, der auf Grund des neuen Systems dort sicherlich zu verschmerzen ist.

Auch der japanische Earth Simulator, der lange Zeit die Liste angeführt und mit seinem Auftauchen im Jahr 2002 in Amerika für einen zweiten „Sputnik-Schock“ gesorgt hatte, ist immer noch in der Liste zu finden und nimmt mittlerweile Platz 30 ein.

Earth Simulator: Das japanische System war lange Zeit auf Platz 1. (Quelle: Top500.org)

Auf Platz 40 rangiert ein weiteres deutsches System, das vom Max-Planck-Institut für Plasmaphysik in Garching betrieben wird. Hier hat man sich ebenfalls für ein BlueGene/P-System entschieden – allerdings deutlich kleiner als das in Jülich installierte. Während dort das System aus insgesamt 16 Schränken besteht, kommt das Garchinger System nur auf ein Achtel der Größe.

Bemerkenswert ist, dass mittlerweile die deutschen Installationen dazu übergegangen sind, auch neueste Technologie zu beschaffen und damit gewisse Risiken einzugehen. Dies scheint jedoch die einzige Möglichkeit zu sein, auch an den neuesten Entwicklungen teilhaben zu können und diesen Prozess eventuell auch mitzugestalten.

Die Systemarchitektur der Zukunft

Interessant sind auch die Trends, welche die Autoren aus dem mittlerweile riesigen Datenfundus – über 30 Listen über mehr als 14 Jahren –extrahieren können. So konnte Erich Strohmaier bei der offiziellen Präsentation der Liste im Rahmen einer BoF-Session auf der SC07 eine empirische Bestätigung für Bell's law finden. Dieses besagt, dass in der Computerarchitektur grundsätzliche Entwicklungen in Wellen von zehn Jahren Länge auftreten.

Während zur Zeit der ersten Listen die Systeme mit Vector- und SIMD-Architektur die Szene dominierten, wurden diese recht bald durch die Systeme abgelöst, die er als "custom scalar" bezeichnete. Typische Vertreter waren etwa Cray T3E oder IBM SP. Diese Systeme unterschieden sich von ihren Vorgängern insofern, als sie nicht mehr speziell entwickelte Prozessoren verwendeten, sondern auf die in den damaligen Workstations verwendeten RISC-Prozessoren zurückgriffen.

Überholt: Prozessorplatine des Cray T3E (Quelle: Creative Commons CC-BY-SA-2.5)

Weitere zehn Jahre später – um 2004 herum – wurden diese Systeme schließlich von den heute dominierenden Cluster-Systemen abgelöst. Seine ((wessen?)) Analyse ergibt, dass sich nun eigentlich die nächste Architektur herauskristallisieren müsste.

Als Kandidat sieht er ((wer?)) hierbei die Energieeffizienten Systeme, deren erster Vertreter IBMs BlueGene-Architektur ist. Die Zukunft wird zeigen, ob diese Systeme tatsächlich die nächste Welle bilden werden oder ob sie mit einem Dasein als Nobodys in der Liste vorlieb nehmen müssen.

Trend zu Many-Core-CPUs

Grundsätzlich ist der Trend festzustellen, dass die Zahl der Cores in den Systemen weiterhin zunimmt. So ist unter den ersten 20 Plätzen der Liste kein System mit deutlich weniger als 10.000 Cores zu finden. Das zeigt ganz deutlich, dass eine effiziente Nutzung dieser Maschinen ohne eine Parallelisierung der Anwendungen nicht möglich sein kann.

Da dieser Trend in Höchstleistungsrechnen allerdings schon seit langem besteht, wurde diese Arbeit bei den meisten Anwendungen schon erledigt. Gleichzeitig sieht man, dass das Höchstleistungsrechnen immer noch Trendsetter für andere Bereiche der Informationstechnologie ist.

Multi-Core: Systeme unter 1.000 Kernen verlieren an Relevanz (Quelle: TOP500.org)

Die mittlerweile auch im Mainstream immer dominanter werdenden Dual-, Quad- und Many-Core-CPUs machen es auch hier notwendig, die Anwendungen zu parallelisieren. Hierbei kann dort dann natürlich auf das Know-how zurückgegriffen werden, das im HPC in den vergangenen 15 Jahren aufgebaut wurde.

IBM ist der Platzhirsch

Betrachtet man die Verteilung der Hersteller in der Liste, so ist zu erkennen, dass IBM mittlerweile auch bei der Zahl der Systeme wieder vor HP liegt. Offensichtlich ist Big Blue nach seinem zweiten Platz in dieser Kategorie auf der Vorgängerliste nun dazu übergegangen, auch kleinere Systeme verstärkt anzumelden und damit HP, das diese Strategie schon länger verfolgt, wieder auf Rang 2 zu verdrängen. Somit liegt nun IBM mit 46,4 Prozent Marktanteil vor HP mit 33,2 Prozent. Auf Rang 3 folgt bereits Dell mit einem Marktanteil von allerdings nur 4,8 Prozent.

Diese von HP und nun auch von IBM verfolgte Strategie hat allerdings gleichzeitig zur Folge, dass verstärkt solche Systeme in der Liste auftauchen, auf denen die Leistung im Fließkommabereich niemals abgerufen wird, da sie als Datenbank- oder Webserver eingesetzt werden.

Übermacht: An IBM kommt derzeit kein anderer Hersteller heran. (Quelle: TOP500.org)

Interessanter erscheint es daher, stattdessen die Marktanteile entsprechend der Leistung der Systeme in den Top 50 zu betrachten. Hier ergibt sich ein völlig anderes Bild: Auf Rang 1 liegt immer noch IBM mit einem Anteil von 34,8 Prozent.

Auf Rang 2 rangiert allerdings bereits Dell mit 16 Prozent, gefolgt von Cray und SGI mit jeweils 12 Prozent. HP liegt hier nur auf Rang 5, da man mit nur vier Systemen – wenn auch zwei in den ersten zehn – unter den ersten 50 vertreten ist.

AMD vs. Intel: Kampf der Prozessor-Giganten

Betrachtet man die Verteilung der verwendeten Prozessoren in der aktuellen Liste, so fällt auf, dass AMD gegenüber Intel weiter an Boden verliert und nun nur noch in 15,8 Prozent der Systeme zum Einsatz kommt.

Intel hingegen dominiert mit einem Marktanteil von über 65 Prozent für die verschiedenen Typen der Xeon-Prozessoren mittlerweile auch den Markt der Höchstleistungsrechner.

Verluste: AMD verliert gegenüber Intel deutlich an Boden. (Quelle: TOP500.org)

Weiterhin rückläufig ist auch der Anteil des Itanium-Prozessors mit nun nur noch 3,6 Prozent. Es sieht so aus, als ob Intel die strategische Zukunft dieser Architektur nicht unbedingt in diesem Markt sieht.

Signifikante Marktanteile hat ansonsten eigentlich nur noch IBM mit seiner Power-Architektur aufzuweisen. Diese treibt zum einen natürlich die BlueGene-Systeme an, zum anderen gibt es auch Cluster-Systeme auf Basis dieser CPU-Familie wie etwas das Mare-Nostrum-Cluster in Barcelona oder das ASC-Purple-System am Lawrence Livermore National Laboratory.

Trend zu Gigabit Ethernet

Im Markt der Verbindungsnetzwerke gibt es einen verstärkten Trend in Richtung Gigabit Ethernet. Dies ist letzten Endes auch eine Folge der Meldestrategie von Seiten HPs und IBMs. Für echt parallele, eng gekoppelte Anwendungen erscheinen diese Systeme nur eingeschränkt nutzbar.

So überrascht es nicht, dass der Anteil von Gigabit Ethernet bei der installierten Leistung der Systeme signifikant niedriger ist. Diese Technologie kommt im Wesentlichen nur auf den hinteren Rängen zum Einsatz. Bei den größeren Systemen nehmen weiterhin die proprietären Netzwerke von IBM (BlueGene), Cray oder SGI eine starke Position ein.

Trend: Die Verbindungsnetzwerke gehen in Richtung Gigabit Ethernet. (Quelle: TOP500.org)

Im Kampf der leistungsstarken Netzwerke schreitet der Wachwechsel zwischen Myrinet und Infiniband weiter voran. So kommt mittlerweile in 121 Systemen Infiniband zum Einsatz, wohingegen Myrinet, das diesen Markt über viele Jahre dominiert hat, mittlerweile nur noch auf 18 Systemen zu finden ist.

Geografische Verteilung: Deutschland auf Platz 3

Last but not least ist die geografische Verteilung der Systeme interessant. Weiterhin dominierend sind die USA: Mehr als die Hälfte aller Systeme sind dort installiert.

Auf Rang 2 folgt Großbritannien mit nun 48 Maschinen vor Deutschland mit 31 Einträgen in der Liste. Japan, das viele Jahre den zweiten Platz fest gebucht hatte, ist nun auf Rang 4 zurückgefallen und behauptet sich nur noch knapp vor Frankreich.

Aufgeholt: Deutschland ist auf einem hervorragenden dritten Platz. (Quelle: Top500.org)

Ein etwas anderes Bild ergibt sich, wenn nur die Top 50 betrachtet werden. Auch hier sind natürlich die USA ganz vorne dran. Allerdings kann sich in dieser Betrachtung Deutschland mit vier Systemen vor Großbritannien, Frankreich und Schweden mit jeweils zwei Systemen behaupten.

Offene Fragen zur Bewertung der Energieeffizienz

Einen wichtigen Part der Präsentation der Top-500-Liste nahm auch dieses Mal wieder die Frage der Energieeffizienz ein. Insbesondere wurde diskutiert, wie dieser Parameter in die Liste eingehen kann und letzten Endes die Top-50-Liste mit der Green-500-Liste der energieeffizientesten Systeme zusammengeführt werden kann.

Weitgehend Einigkeit unter den Machern der Listen besteht darin, dass der Linpack-Benchmark weiterhin die Basis zur Ermittlung der Rechenleistung der System sein soll. Bereits das Ermitteln der benötigten elektrischen Leistung wirft jedoch Fragen auf: Welche Teile sollen betrachtet werden? Wie soll gemessen werden? Was darf extrapoliert werden?

Folgende Antworten kristallisieren sich zurzeit heraus: Gemessen wird die tatsächlich verwendete elektrische Leistung in Rechenknoten und Verbindungsnetzwerk. Das heißt, Plattensysteme und Kühlung bleiben außen vor. Es ist ausreichend, einen einzelnen Knoten zu vermessen, der Gesamtverbrauch kann dann extrapoliert werden. Die Switches des Netzwerks sollten hingegen als Ganze gemessen werden, falls diese nicht modular aufgebaut sind. Alle Messungen sollen jedoch "unter Last" erfolgen, also während eines Laufs des Linpack-Benchmarks.

Hoffentlich beteiligen sich möglichst viele Betreiber von Höchstleistungsrechnern an dieser Initiative, damit die Top-500-Liste auch in Zukunft diesem Aspekt des Betriebs Rechnung tragen kann. (ala/mst)