CERN: Meilensteine beim größten wissenschaftlichen Instrument der Erde erreicht

13.09.2005
Das europäische Zentrum für Kernforschung CERN hat erfolgreich eine Reihe von Simulationen abgeschlossen hat, die für den Gesamterfolg des Large Hadron Collider (LHC)-Projekts von entscheidender Bedeutung sind.

Unter Verwendung eines Itanium-2-Clusters wurde die Wärmeabgabe großer Teilchendetektoren simuliert, die derzeit im Rahmen des LHC-Projekts unterirdisch in einem Ringtunnel installiert werden. Der LHC ist ein riesiger Teilchenbeschleuniger mit einem 27 km langen Ringtunnel, der im Jahr 2007 in Betrieb genommen werden soll. Nach seiner Fertigstellung wird der LHC das größte wissenschaftliche Instrument der Erde sein.

Derselbe Itanium-Cluster half dem CERN ebenfalls dabei, die Leistungsgrenzen für den Hochgeschwindigkeitstransfer von Daten immer weiter zu verschieben. Langsam arbeitet man sich an die erforderlichen Datenraten heran, um die jährlich anfallenden 15 PByte an Daten verarbeiten zu können.

Der Datentransfer stellt für das CERN eine ständige Herausforderung dar. Mit dem Cluster hat CERN bewiesen, zehn Tage lang Daten mit einer Rekordgeschwindigkeit von 600 MByte/s an die sieben angegliederten Laboratorien in Europa und in den USA übertragen zu können. Das Ergebnis stellte einen wichtigen Meilenstein auf dem Weg zur der Übertragungsleistung dar, die für das LHC Computer Grid erforderlich ist.

15 PByte an Daten pro Jahr

Über den Zeitraum von mehr als zehn Jahren muss CERN die Daten später kontinuierlich mit 1500 MByte/s übertragen. Diese analysieren dann mehr als 150 Rechenzentren auf der ganzen Welt. Das Datenmaterial enthält Messwerte der frontalen Kollisionen von Protonen in den Teilchendetektoren. Diese nahezu mit Lichtgeschwindigkeit ablaufenden Kollisionen werden in den kommenden Jahren von Tausenden Teilchenphysikern ausgewertet. Gesucht werden Hinweise auf neue Teilchen sowie Erscheinungen, die eine Erklärung für den Ursprung des Universums liefern können. Wesentlich für den Erfolg dieser Tests war die hohe Zuverlässigkeit und der I/O-Datendurchsatz der Rechnersysteme im CERN Cluster.

CERN und dessen Partner arbeiten daran, die Übertragungsgeschwindigkeit von 600 MByte/s in den kommenden Monaten weiter zu verbessern. Die Testanforderungen an die Itanium-2- und Xeon-Prozessor-basierten Systeme werden dafür ständig gesteigert, bis das LHC Computing Grid die volle Datenrate erreicht. Es wird geschätzt, dass in einem Betriebsjahr des LHC Datenmengen von über 15 PByte (Petabyte, 2^10 TByte) anfallen. Dies entspricht in etwa einem Prozent der heute geschätzten weltweiten Produktion von Informationen, sowohl in digitaler als auch in nicht digitaler Form.

Der Opencluster von CERN ist ein hoch entwickeltes System auf Basis von Intel-Itanium-2-Prozessoren und wurde im Rahmen des CERN Openlab entwickelt. Das Openlab ist eine Initiative der Industriepartner Intel, HP, IBM, Oracle und Enterasys mit dem Ziel, neueste Lösungen in der extrem anspruchsvollen CERN-Rechenumgebung zu testen. Der Opencluster diente jetzt auch dazu, den Luftstrom innerhalb des LHC Ringtunnels zu optimieren, in dem die riesigen unterirdischen Detektoren angebracht sind.

Schnelle Auswertungen sind entscheidend

Die Auswertung der Temperaturverteilung an den Detektoren unter verschiedenen Bedingungen hilft den Ingenieuren, eine Überlastung der empfindlichen und nur schwer erreichbaren Detektorkomponenten zu vermeiden. Hierbei standen die Ingenieure des CERN unter großem Druck, da sie diese wichtigen Simulationen mit konventionellen Computerressourcen bewältigen sollten. Die Installation der Detektoren ist noch für das laufende Jahr vorgesehen, so dass es darauf ankam, die Ergebnisse der Simulation möglichst rasch zu erhalten.

"Das LHC Computing Grid ist ein Beispiel für die ausgesprochen erfreuliche Entwicklung im Bereich der wissenschaftlichen Datenverarbeitung", so Sverre Jarp, CTO des CERN Openlab. "Da wir jährlich mehr als 15 PByte an Daten um den Globus senden und auf Zehntausenden CPUs analysieren, müssen wir die Leistungsgrenzen für Cluster-basierte Rechner und den Datentransfer weiter anheben. Die erfolgreichen Tests des CERN Openclusters, der sich auf Intel-Itanium-2- und Intel-Xeon-Prozessor-basierte Plattformen stützt, geben uns die Sicherheit, die von uns in Zukunft generierten riesigen Informationsmengen erfassen, verarbeiten und exportieren zu können." (ala)