Auszeichnung für Kompressionssoftware
Clemens-August Thole, einer der drei Preisträger: „Ab 2008 wird beim Deutschen Wetterdienst die Prognose für die kommenden Tage etwa 20 Mal vorausberechnet. Da entstehen im Jahr etwa 2,5 Petabyte an Daten.“
Um diese Menge klein zu rechnen, hat Thole mit seinem Team eine Software entwickelt, die Wetterdaten im Grib-Format um den Faktor 2,5 reduziert. „Für die Simulationen wird Deutschland mit einem Netz von Gitterpunkten überzogen“, so Prof. Rudolph Lorentz, gleichfalls Preisträger. „Die Simulationsergebnisse an benachbarten Punkten hängen voneinander ab. So reicht es, wenn wir die Werte an einem Gitterpunkt gut vorhersagen können, um die Datengröße wesentlich zu reduzieren.“
Auch in der Automobilindustrie sind Simulationen nicht mehr wegzudenken. Ein virtueller Crash benötigt mehrere Gigabyte Speicherplatz. „Pro Tag fährt so ein Modell etwa 100 bis 150 Mal im Rechner gegen die Wand“, sagt Rodrigo Iza-Teran, der Dritte im Trio der Preisträger. Da kommen schnell Daten von 100 Terabyte und mehr zusammen.
Als ersten Schritt für die Kompression geben die Entwicklungsingenieure die Genauigkeit der gespeicherten Daten vor, z.B. ein Millimeter für Fahrzeugcrashs. Bei diesem „Quantisieren“ wird bewusst ein Datenverlust in Kauf genommen. Alle weiteren Komprimierungsschritte sind verlustfrei, das heißt die Daten lassen sich wieder 1:1 herstellen.