CERN: Meilensteine beim größten wissenschaftlichen Instrument der Erde erreicht

15 PByte an Daten pro Jahr

Über den Zeitraum von mehr als zehn Jahren muss CERN die Daten später kontinuierlich mit 1500 MByte/s übertragen. Diese analysieren dann mehr als 150 Rechenzentren auf der ganzen Welt. Das Datenmaterial enthält Messwerte der frontalen Kollisionen von Protonen in den Teilchendetektoren. Diese nahezu mit Lichtgeschwindigkeit ablaufenden Kollisionen werden in den kommenden Jahren von Tausenden Teilchenphysikern ausgewertet. Gesucht werden Hinweise auf neue Teilchen sowie Erscheinungen, die eine Erklärung für den Ursprung des Universums liefern können. Wesentlich für den Erfolg dieser Tests war die hohe Zuverlässigkeit und der I/O-Datendurchsatz der Rechnersysteme im CERN Cluster.

CERN und dessen Partner arbeiten daran, die Übertragungsgeschwindigkeit von 600 MByte/s in den kommenden Monaten weiter zu verbessern. Die Testanforderungen an die Itanium-2- und Xeon-Prozessor-basierten Systeme werden dafür ständig gesteigert, bis das LHC Computing Grid die volle Datenrate erreicht. Es wird geschätzt, dass in einem Betriebsjahr des LHC Datenmengen von über 15 PByte (Petabyte, 2^10 TByte) anfallen. Dies entspricht in etwa einem Prozent der heute geschätzten weltweiten Produktion von Informationen, sowohl in digitaler als auch in nicht digitaler Form.

Der Opencluster von CERN ist ein hoch entwickeltes System auf Basis von Intel-Itanium-2-Prozessoren und wurde im Rahmen des CERN Openlab entwickelt. Das Openlab ist eine Initiative der Industriepartner Intel, HP, IBM, Oracle und Enterasys mit dem Ziel, neueste Lösungen in der extrem anspruchsvollen CERN-Rechenumgebung zu testen. Der Opencluster diente jetzt auch dazu, den Luftstrom innerhalb des LHC Ringtunnels zu optimieren, in dem die riesigen unterirdischen Detektoren angebracht sind.