8,9 TFlops/s: Europarekord aus Jülich

Warum Supercomputer

Früher waren die Forscher auf Theorie und Experiment angewiesen, um Ergebnisse zu finden. Heute erweist sich die Computersimulation als dritte Säule, wenn Experimente zu aufwändig sind oder die Theorie, beispielsweise Differentialgleichungen, nicht exakt lösbar ist. Mit wachsender Leistung können die Wissenschaftler die simulierten Modelle verfeinern oder mit unterschiedlichen Eingabedaten rechnen. Daraus gewinnen sie eine Vorstellung für das Verhalten des simulierten Systems.

Eine Problemstellung dabei wird zunächst in ein physikalisches oder mathematisches Modell umgesetzt und als Programm auf einem Rechner implementiert. Hierzu sind gute mathematische Kenntnisse der Algorithmen und deren Fehlerabschätzung nötig, um Abweichungen vom exakten Modell zu berücksichtigen. Nach dem Durchlauf überprüft der Wissenschaftler die Ergebnisse, stellt die Fehler fest und verbessert das Modell. Wenn die Ergebnisse hinreichend stabil und konform mit der Praxis sind, kann er unterschiedliche Aufgaben mit der gleichen Fragestellung bearbeiten.

Ein Beispiel ist der Strömungswiderstand eines Autos. Man beginnt mit einem Prototypen und verbessert das Design sukzessive durch viele Computerläufe. Bei DaimlerChrysler beträgt die Laufzeit eines solchen Jobs auf einem IBM p690-Rechner zwei bis vier Tage. Ein Höchstleistungsrechner reduziert durch höhere Taktraten und eine Parallelisierung über Knoten hinweg diese Zeit auf einen halben Tag. Dadurch wird die optimale Autoform schneller gefunden, das Unternehmen erzielt einen Wettbewerbsvorteil.