Zusammenspiel von Software und Hardware entscheidend

Supercomputer: Top-500-Liste kaum aussagekräftig

Fujitsu arbeitet an einem neuen Supercomputer, der im Jahr 2012 die Grenze von zehn Petaflops durchbrechen will. Damit will sich Fujitsu auch einen guten Platz in der Top500-Supercomputing-List sichern, die derzeit von einem 1,75 Petaflops starken Cray-System angeführt wird.

Das am japanischen Forschungsinstitut RIKEN entwickelte System namens "K" wird aus 80.000 Achtkern-Prozessoren vom Typ SPARC64 VIIIfx mit jeweils 2,2 GHz zusammengebaut. "Die Top500-Liste ist zweifelsohne prestigeträchtig. Wirklich aussagekräftig ist sie aber nur bedingt", schränkt Siegfried Benkner, Leiter des Instituts für Computerwissenschaften an der Universität Wien, im Gespräch mit pressetext ein. Denn die theoretisch erreichbare Rechenleistung sage noch nichts über die tatsächliche Performance von Software-Anwendungen innerhalb der sehr spezifischen Supercomputing-Architektur aus, so Benkner.

"Die große Herausforderung bei allen Systemen liegt darin, bestehende Anwendungen so zu adaptieren, dass sie die vorhandene Leistung auch optimal ausnutzen können. Je nach Anwendungsszenario ist die Nummer zehn der Liste daher unter Umständen besser geeignet als die Nummer eins der schnellsten Supercomputer", erklärt Benkner.

Neben der rasant steigenden Rechenleistung, die für komplexe Forschungsgebiete wie die Biologie oder Medizin unerlässlich ist, spielt aber auch der Energieverbrauch eine immer größere Rolle. "Wenn die Verbrauchskosten im Betrieb teurer als die Hardware sind, wird dadurch die ökonomische Rentabilität in Frage gestellt", meinte auch Thomas Lippert, Direktor des Jülich Supercomputing Centre (JSC), anlässlich der Vorstellung des dort geplanten Exascale-Projekts.

Seit einiger Zeit existiert deshalb für den Supercomputing-Bereich mit der Green500-List ein alternatives Ranking, das die umweltfreundlichsten Rechencluster auflistet. (pte/hal)