Supercomputer in der Anwendung

Einsatzgebiete für Supercomputer

14.02.2007 von Dr. Marcus Richter
Simulationen auf Supercomputern sind zu einem dritten Standbein neben Theorie und Experiment in Forschung und Entwicklung geworden. Damit lassen sich Resultate erzielen, die ohne den Einsatz der Großrechner unerreichbar wären. Zudem können sie die Kosten erheblich senken.

Das Höchstleistungsrechnen auf Supercomputern ist zu einer entscheidenden Schlüsseltechnologie im 21. Jahrhundert geworden. Wissenschaft und Wirtschaft nutzen Höchstleistungsrechner für Simulationen, Datenauswertungen, effiziente Produktionsprozesse und verlässliche Prognosen. Dabei reichen die Einsatzgebiete der Computersimulationen von Physik und Chemie über Klimaforschung hin zu Lebenswissenschaften und Engineering. Superrechner haben technologische Fertigungsverfahren und Abläufe revolutioniert und sind ein Motor der Innovation in Industrie und Finanzwesen.

Europa hat neben den USA und Japan im Einsatz von Supercomputern bislang eine Führungsposition eingenommen. Allerdings bauen die USA und Japan die Leistungsfähigkeit und den Einsatz von Superrechnern zurzeit massiv aus. Dies geschieht in dem Bewusstsein, dass Supercomputing ein entscheidender Faktor für nationale Erfolge auf wissenschaftlichem und wirtschaftlichem Gebiet ist.

Hot Spots: Die Top100-Supercomputer ballen sich in wenigen Regionen. (Quelle: TOP500.org)

Ziel ist die Steigerung der „Sustained Performance“, also der Rechenleistung, die ein Supercomputer bei einer konkreten Anwendung real erreicht, um einen Faktor 100 bis 1000 in den nächsten vier Jahren. Hierdurch sollen Grand-Challenge-Probleme in Angriff genommen werden, die mit heutigen Systemen nicht lösbar sind.

Höchsten Rechenzeitbedarf auf Supercomputern haben vor allem die Felder Klima- und Erdsystemforschung, Geophysik, Nanostrukturphysik, Festkörperphysik, Hydrodynamik, Astrophysik, Elementarteilchenphysik, Physik der Hadronen und Kerne, Materialwissenschaften, theoretische Chemie, Biophysik, Bioinformatik sowie die Plasmaphysik. Im Folgenden finden Sie einige aktuelle Forschungsergebnisse aus diesen Feldern, die nur durch den Einsatz von Hochleistungsrechnern möglich waren.

Konstruktion und Simulation: Airbus-Entwicklung

Moderne Flugzeugentwicklung kommt ohne High-Performance Computing (HPC) nicht aus. Dies verdeutlichte anschaulich Nigel Barry, HPC-Architekt bei Airbus, in seiner Präsentation auf der Internationalen Supercomputer Konferenz 2006 in Dresden. Bei Airbus hat der Einsatz von Supercomputer-Simulationen beispielsweise die Entwicklung der Tragflächen komplett revolutioniert. Das Entwicklungsteam kann das optimale Flügeldesign aus einer Vielzahl möglicher Konstruktionen auswählen. Hierbei übersteigt der Umfang denjenigen früherer Vergleichsstudien um mehr als das Tausendfache – und das bei kürzeren Entwicklungszyklen.

Das Ergebnis sind leichtere Jets, die weniger Treibstoff verbrauchen und mehr Nutzlast transportieren können. In einigen Bereichen hat der Einsatz von Supercomputern sogar dazu geführt, dass auf physikalische Tests ganz verzichtet werden kann, während in anderen Bereichen ihre Zahl stark reduziert werden konnte. Die Möglichkeit, immer detaillierte nummerische Simulationen durchführen zu können, wird auch viele der noch notwendigen Tests überflüssig machen.

Vom kompletten Rumpf bis zum einzelnen Schweißpunkt: Die Simulation hilft Airbus bei der Optimierung der kompletten Entwicklung. (Quelle: Airbus)

Haupteinsatzgebiete der Supercomputer bei Airbus sind computergestützte Konstruktion und nummerische Simulationen in den Bereichen Strömungsdynamik, Aerodynamik, Kontrollsysteme, Strukturberechnungen sowie Analysen, die auf finiten Elementen basieren. Insgesamt hat sich die Zahl der HPC-Anwender bei Airbus von 50 im Jahr 1999 auf heute 5000 vergrößert.

Elementarteilchenphysik: Gitter-QCD

Atomkerne bestehen aus Protonen und Neutronen, die ihrerseits wiederum aus Elementarteilchen, den so genannten Quarks, zusammengesetzt sind. Jeweils drei Quarks bilden ein Proton beziehungsweise Neutron. Dabei werden die Quarks durch „Klebeteilchen“ – die Gluonen – zusammengehalten. Bemerkenswerterweise nimmt die Kraft zwischen den Quarks mit ihrem Abstand zu, so dass nur nach außen neutrale Quarkkombinationen stabil existieren können. Die mit dieser starken Wechselwirkung in Verbindung stehenden Ladungen treten, im Gegensatz zur elektrischen Ladung, bei der es nur zwei Ladungstypen gibt, in drei Varianten auf.

Die drei Ladungstypen der starken Wechselwirkung werden mit Rot, Grün und Blau bezeichnet, in Anlehnung an die drei Grundfarben, die bei ihrer Überlagerung weiß – und damit farbneutral – erscheinen. Aufgrund dieser Farbanalogie wird die Theorie der starken Wechselwirkung als Quanten-Chromo-Dynamik (QCD) bezeichnet. Um die starke Wechselwirkung nach außen hin abzuschirmen – und so einen stabilen Zustand bilden zu können – müssen die Quarks in einem nach außen farbneutralen Zustand vorliegen. Möglich ist damit nur die Kombination Rot, Grün und Blau, die sich zu Weiß ergänzt, oder eine komplementäre Anordnung, wie etwa Rot und Anti-Rot. Dabei liegt eine solche Dreierkombination bei den Kernbausteinen, den Protonen und Neutronen vor, während die Zweierzustände so genannte Mesonen bilden.

Video: Durch einen Klick auf das Bild öffnet sich unser Videoplayer. Die darauf folgende Animation zeigt das Zerreißen des Flussschlauches und erste Anzeichen der kondensierten neuen Quarks.

Die bizarre Eigenschaft, dass die starke Wechselwirkung mit zunehmendem Abstand stark ansteigt, führt dazu, dass übliche Rechenmethoden wie die Störungstheorie bei „großen“ Abständen ab etwa 1 Fermi zusammenbrechen. Nur mit Hilfe von Supercomputer-Simulationen, in denen Raum und Zeit nicht mehr als kontinuierlich, sondern in Form eines Gitters behandelt werden, können hier quantitative Aussagen gewonnen werden.

Lange Zeit wurde vermutet, dass in der QCD ein besonderer Effekt, das so genannte Confinement, auftritt: Vergrößert man den Abstand zwischen zwei Quarks, so nimmt die Kraft zwischen ihnen immer weiter zu. Irgendwann ist die Energiedichte dann so groß, dass es energetisch günstiger wird, zwei jeweils gebundene Quarkpaare zu generieren. Der Flussschlauch zwischen den beiden Quarks reißt, und aus dem Vakuum kondensieren zwei neue Quarks, die mit den ursprünglichen sofort einen Bindungszustand bilden. Dieser Mechanismus führt dazu, dass Quarks niemals isoliert auftreten, sondern immer nur im Zweier- oder Dreierpack. Allerdings konnte dies durch analytische Rechnungen nicht belegt werden. In jüngster Zeit gelang es jedoch, dieses Problem mit Gitter-QCD-Simulationen auf Highend-Computersystemen zu lösen. Die dem Bild hinterlegte Animation zeigt das Zerreißen des Flussschlauches und erste Anzeichen der kondensierten neuen Quarks.

Biophysik: Proteinfaltung

Proteine üben innerhalb der Zelle wichtige Aufgaben aus wie den Transport von Molekülen, die Katalyse biochemischer Reaktionen oder die Bekämpfung von Krankheiten. Dabei ist ihre Funktionsweise unmittelbar mit der räumlichen Struktur verbunden. Sie können nur dann ihrer spezifischen Aufgabe nachkommen, wenn sie die dafür erforderliche Struktur besitzen.

Auch nach Jahrzehnten intensiver Forschung ist es immer noch eine offene Frage, wie die räumliche Gestalt aus der chemischen Zusammensetzung (also der Aminosäurensequenz eines Proteins, die im Genom codiert ist) hervorgeht. Eine Antwort auf diese Frage könnte zu einem tieferen Verständnis verschiedener Krankheiten führen, die durch falsch gefaltete Proteine hervorgerufen werden (beispielsweise BSE beim Rind, beziehungsweise die Creutzfeldt-Jakob-Krankheit beim Menschen). Darüber hinaus hofft man, neue Medikamente mit speziell zugeschnittenen Eigenschaften entwickeln zu können.

Auf Basis einer hinreichend akkuraten Beschreibung der Kräfte zwischen den einzelnen Atomen eines Proteins sowie seiner Umgebung ist es theoretisch möglich, die Faltung des Proteins zu simulieren. Jedoch führt die Komplexität der Wechselwirkungen, zu denen sowohl anziehende als auch abstoßende Anteile beitragen, zu sehr zerklüfteten Energielandschaften. Das Aufspüren des globalen Energieminimums im hochdimensionalen Konfigurationsraum wird damit zur extrem rechenintensiven Aufgabe. Dabei muss sichergestellt werden, dass die Simulation letztendlich nicht in einem lokalen Minimum festsitzt.

Video: Durch einen Klick auf das Bild öffnet sich unser Videoplayer. Das Video zeigt die auf einem Supercomputer berechnete Molekülstruktur und deren verschiedene Faltungszustände von Fragment 1-34 des „Human Parathyroid“-Hormons in Verbindung mit der Gesamtenergie der Konfiguration.

Die Animation zeigt verschiedene Faltungszustände von Fragment 1-34 des „Human Parathyroid“-Hormons in Verbindung mit der Gesamtenergie der Konfiguration. Die in der Natur vorkommende Struktur ist durch das globale Minimum der Gesamtenergie festgelegt. PTH1-34 reguliert den Calciumstoffwechsel und wird zur Behandlung von Osteoporose eingesetzt. Für theoretische Untersuchungen ist es interessant, da sich die Kristallstruktur von den NMR-Strukturen unterscheidet. Die Animation wurde freundlicherweise von Prof. Ulrich Hansmann (Michigan Technological University / NIC) zur Verfügung gestellt.

Astrophysik: Entwicklung von Galaxien und Sternhaufen

In der nächsten Dekade startet der GAIA-Satellit als Key Project der ESA in der Astrophysik. Er soll Positionen, Geschwindigkeiten und physikalische Eigenschaften von rund 100 Millionen Sternen mit bisher unerreichter Genauigkeit messen. Besonderes Interesse gilt dabei dem lokalen Bereich unserer Galaxis, der komplett vermessen werden soll.

Computersimulationen, basierend auf direkten N-Körper-Modellen, sind die einzige Möglichkeit, Gleichgewicht und Dynamik der Galaxis als Ganzes zu verstehen und so auf theoretischem Niveau mit den erwarteten Ergebnissen von GAIA Schritt halten zu können. Dabei stehen die folgenden Probleme zurzeit im Interesse der Forschung:

Bislang ist die Rechenleistung der zur Verfügung stehenden Supercomputer jedoch bei weitem nicht ausreichend, um realistische Modelle zu behandeln. Somit bleibt nichts anderes übrig, als die Problemgröße an die Rechenkapazitäten anzupassen. Schließlich versucht man, durch Variation auf das reale Problem zu skalieren. Es hat sich jedoch gezeigt, dass solche Skalierungen unzuverlässig sein können. Beim Überschreiten kritischer Problemgrößen treten neue, nicht vorhergesehene oder für unwichtig gehaltene Phänomene auf.

Video: Durch einen Klick auf das Bild öffnet sich unser Videoplayer. Die Animation zeigt die Wechselwirkung eines Planeten mit einer Staubscheibe. Die Staubteilchen „spüren“ dabei die Gravitation des Planeten und des Zentralsterns sowie den Strahlungsdruck durch das Licht des Sterns.

Ziel der Modellierung ist, Strukturen zu untersuchen, die der Planet in der Staubscheibe erzeugt (Ringe, überdichte Regionen) und zu schauen, ob man diese Strukturen beobachten kann.

Bedarf an Supercomputer-Kapazität

Viele Probleme sind selbst bei Einsatz der schnellsten Supercomputer heute noch weit von einer Lösung entfernt. Es ist jedoch abzusehen, dass die kontinuierliche Weiterentwicklung der Computertechnologie und die fortlaufenden Verbesserungen von Modellen sowie mathematischen Verfahren zu einem exponentiellen Anwachsen der Simulationsgeschwindigkeit führen werden. Selbst die anspruchsvollsten Probleme der Computational Science lassen sich hierdurch letztendlich in Angriff nehmen. Der Bedarf an Supercomputer-Kapazität in den nächsten Jahren in Deutschland ist in der folgenden Tabelle dargestellt.

Zukünftiger Bedarf an Supercomputer-Kapazität in Deutschland nach verschiedenen Disziplinen (in sustained TFlop/s).

Gebiet

2005-2007

2007-2009

2010

Klima und Erdsystem Forschung

20

50-100

>500

Geophysik

1

10-100

>1000

Nanostrukturphysik

1

10-50

>200

Festkörperphysik

1

50-100

>1000

Strömungsdynamik

2,5-10

25-100

>1000

Astrophysik

10

50-100

>500

Elementarteilchenphysik sowie Physik der Hadronen und Kerne

30

100

>1000

Materialwissenschaften

10

50-100

>500

Theoretische Chemie

3

25-125

>300

Weiche kondensierte Materie

3

30

>200

Biophysik und Bioinformatik

3-15

15-80

>1000

Plasmaphysik

10

50

>500

Leistungssteigerung durch massiv parallele Systeme

Um die erforderliche Leistungssteigerung zu erzielen, könnte man die Taktrate der Chips erhöhen. Allerdings steigt bei einer Chiptechnologie die Hitzeentwicklung quadratisch mit der Taktfrequenz an. Die Verdopplung der Taktfrequenz vervierfacht die produzierte Abwärme, was dazu führt, dass die Kühlung immer aufwändiger und kostenintensiver wird.

Aus diesem Grund hat IBM mit dem Blue Gene Light System (BlueGene/L) einen anderen Weg eingeschlagen. IBM setzt PowerPC-440-Prozessoren mit einer geringen Taktfrequenz (0,7 GHz) ein, die trotz simpler Luftkühlung dicht an dicht gepackt werden können. 32 Doppel-CPU-Chips sind in einer Node Card zusammengefasst. Wiederum 32 Node Cards bilden ein Rack, aus denen das System aufgebaut wird.

BlueGene/L: Viele langsame Prozessoren ergeben zusammen die schnellsten Supercomputer der Welt.

Das weltweit größte System dieser Art wird in Kalifornien vom Lawrence Livermore National Laboratory betrieben. Mit insgesamt 131.072 CPUs - verteilt auf 64 Racks -und einer Peak-Performance von 367 TFlop/s führt es derzeit die Top500-Liste an. Das größte in Deutschland installierte BlueGene/L-System steht im Forschungszentrum Jülich und ist um einen Faktor 8 kleiner. Damit erreicht es aber immerhin noch eine Peak-Leistung von 45 TFlop/s und liegt auf Platz dreizehn der Top500-Liste. Unter den nicht zweckgebundenen Forschungsrechnern ist es das schnellste System in Europa.

Ausblick

Hinter der BlueGene/L-Architektur steht ein kompletter Paradigmenwechsel. Statt hoher Einzel-CPU-Leistung steht hier die Kosteneffizienz des Gesamtsystems im Vordergrund. Durch die Verwendung von Standardchips ist BlueGene/L um den Faktor acht billiger als andere Geräte der gleichen Leistungsklasse. Die geringe Taktfrequenz der Prozessoren senkt die Betriebskosten, da weniger Strom verbraucht wird und eine geringere Kühlleistung nötig ist. Darüber hinaus ermöglicht sie eine äußerst kompakte Bauweise und minimiert die Standfläche. Den Leistungsverlust durch die geringe Taktfrequenz machen die große Zahl an CPUs und die sehr schnelle Netzwerkverbindung zwischen den Prozessoren der Racks wett.

Skalierungsverhalten eines hocheffizienten Codes zur Simulation von Quantencomputern: Mit zunehmender Prozessoranzahl ist ein deutliches Ansteigen der aufsummierten CPU-Rechenzeit (aufgetragen auf der y-Achse) zu beobachten. Idealerweise würde man eine horizontale Linie erwarten.

Dennoch ist es nicht automatisch so, dass die bloße Steigerung der Anzahl der verwendeten Prozessoren automatisch dazu führt, dass Programme schneller laufen. Da fast immer mit zunehmender CPU-Zahl auch die Kommunikation zwischen den Prozessoren ansteigt, ist typischerweise ein Abflachen der Leistungskurve zu beobachten. Dies führt dazu, dass ab einer gewissen Systemgröße der Einsatz zusätzlicher Prozessoren nicht mehr rentabel ist, da die Laufzeit der Simulation überproportional ansteigt. Die zukünftige Herausforderung im HPC-Umfeld liegt daher nicht nur darin, immer leistungsfähigere Computersysteme zur Verfügung zu stellen. Ebenso wichtig sind ausgeklügelte Simulationsverfahren und hocheffiziente Programme, die die massive Parallelität auch nutzen können. (ala)