Data Center im Wandel

Sieben neue Trends im Rechenzentrum

27.08.2012 von Ariane Rüdiger
Energieeffizienz wird in der Data-Center-Szene zum zentralen Thema, der Standort des Rechenzentrums immer wichtiger. Sowohl Betreiber als auch RZ-Ausrüster organisieren sich europaweit in einem Verband. Wir zeigen Ihnen die aktuellen Trends auf.

Moderne Rechenzentren arbeiten immer energieeffizienter, sind modular aufgebaut und in Cloud-Szenarien eingebunden. Zugleich entdecken RZ-Provider die sich bietenden Chancen, wenn sie ihre IT-Anlagen als Komponente eines Gesamtsystems aus Energie, Daten und Ressourcen begreifen.

Trend 1: Data Center mit PUEs unter 1,2 werden zur Regel

"Rechenzentren mit einem PUE-Wert (Power Usage Effectiveness) über 2 wird es in spätestens fünf Jahren nicht mehr geben", prognostiziert Paul Francois Cattier, Global Vice President Data Center bei Schneider Electric. Die RZs etwa, die auf der Fachkonferenz Datacentres 2012 in Nizza vorgestellt wurden, hatten allesamt PUE-Werte unter 1,2. Manche kamen gar unter 1,1. Das bedeutet, dass weniger als 10 Prozent der gesamten verbrauchten Energie zusätzlich für Kühlung, Klimatisierung etc. verwendet werden müssen. Zu verdanken ist dies der Tatsache, dass immer mehr RZ-Bauer beginnen, die technischen Toleranzen der Geräte bezüglich Temperatur und Feuchtigkeit auszuschöpfen und Rechenzentren demzufolge immer öfter bei Temperaturen zwischen 22 und 30 Grad betrieben werden.

"Wir behandeln unsere Server viel zu vorsichtig", ist Chris Belady, General Manager Datacenter Services bei Microsoft, überzeugt. Er ließ schon einmal ein kleines Rechenzentrum sieben Monate ausfallfrei in einem Zelt laufen. Andere sehen das ähnlich: Neue Rechenzentren des Hosters Telehouse-werden für eine Umgebungstemperatur von 35 Grad ausgelegt, bisher fuhr man mit 29 Grad und hatte keine Komplikationen. So berichtet auch Derek Webster, Head of Datacenter Development EMEA bei Yahoo: "Wir haben in unserem neuen New Yorker Data Center das vorgegebene Spektrum für Luftfeuchtigkeit und Temperatur weit überschritten - ohne negative Auswirkungen! Wir wollen, dass die Normen angepasst werden." Dann würde in vielen Regionen schlichte Freiluftkühlung ausreichen, um die Geräte arbeitsfähig zu halten. Dazu kommen, wie beim Yahoo-RZ in New York, innovative architektonische Konzepte, die die Architektur zum Beispiel dem natürlichen Strömungsverhalten der Luft anpassen.

Wohin der Weg führt, zeigen auch einige Preisträger des diesjährigen European Code of Conduct for Datacenters, dem inzwischen 120 Rechenzentren angehören: Google erhielt einen Preis für ein neues RZ in St. Ghislain, Belgien, mit einem PUE von nur 1,1. Es nutzt Freiluft-Verdunstungskühlung und dazu Wasser aus einem benachbarten Industriekanal, hocheffiziente Stromversorgungen und Batterien an jedem Server als UPS-Ersatz. Die niederländische Datacentres Group erhielt einen Preis für ihr Amsterdamer Rechenzentrum. Dort arbeitet ein selbstentwickeltes adiabatisches Verdunstungskühlungssystem. Der Energieverbrauch wird vollständig überwacht. Das RZ verwendet grünen Strom und UPS-Systeme mit 97 Prozent Effizienz. Der PUE-Wert liegt bei 1,16.

Wie Pioniere das Data Center kühlen
Verdunstungskühlung
Modulare Verdunstungskühleinheiten wie Ecobreeze von Schneider Electric ermöglichen es in vielen Regionen, Rechenzentren hauptsächlich mit Außenluft zu kühlen
Natürliche Luftströmungen und ein Vertikaldesign für die optimierte Kühlung
Das im Bau befindliche Marilyn-Rechenzentrum in Paris verwendet natürliche Luftströmungen und ein Vertikaldesign für die optimierte Kühlung des Gebäudes
Thermisches Rad
Das thermische Rad schließt Innen- und Außenluft voneinander ab und schafft gleichzeitig einen Temperaturausgleich, dessen Ausmaß sich nach der Drehgeschwindigkeit richtet.
Submersionskühlung
Die Idee, IT-Systeme direkt flüssig zu kühlen – ohne Umweg über die Luft – feiert zur Zeit fröhliche Urständ. So verwendet der britische Rechenzentrumsbauer und –betreiber Ark Continuity Submersionssysteme der Marke CarnotJet von Green Revolution Cooling. Man muss sie sich als eine Art Hightech-Wanne vorstellen, in die das gesamte Hitze abstrahlende IT-Equipment gehängt wird.
Submersionskühlung in der Maschine
Den wohl konsequentesten Weg der Flüssigkühlung geht das junge amerikanische Unternehmen Hardcore Computer. Auch Hardcore verwendet zum Kühlen ein dielektrisches Öl, das gut Wärme leitet...
Liquiblade
Jedes der angebotenen „Liquidblades“ – ausgestattet mit aktuellen Prozessoren und entsprechender Connectivity – wird in sich gekapselt...
Liquiblade
Die Kühlflüssigkeit, die mehr als 1300 mal so gut isoliert wie Luft, fließt über tropffreie Zu- und Abflüsse und damit verbundene Schläuche kühl in den gekapselten Rechner ein und warm wieder hinaus. Das übrige Kühlsystem besteht aus Pumpen und einer Einheit, die die Kühlflüssigkeit ihrerseits kühlt, bevor sie in die Rechner zurückfließt.

Eine niederländische Non-Profit-Organisation, bestehend aus R-iX (Rotterdam Internet Exchange), Intermax und Hoogendoorn IT Services, bekam einen Preis für das Rechenzentrum Spaanse Kubus. Es wird mit 25 Grad Kaltgangtemperatur gefahren und mit einem wärmetauschenden Schwungrad von Kyoto Cooling gekühlt. PUE-Wert: 1,13. Das Rechenzentrum sentry42 von Migration Solutions in Norwich, Großbritannien, schließlich erhielt einen Preis für eine gelungene Gesamtlösung in einem entkernten, 20 Jahre alten Gebäude, das ausschließlich mit LEDs beleuchtet wird. Wärme wird zurückgewonnen und anderweitig genutzt. Der PUE ist noch nicht gemessen.

Trend 2: Intelligenter Stromverbrauch - Geld sparen im RZ

Bis 2015 sollen europäische Data Center laut dem niederländischen Beratungsunternehmen Infrarati rund 105 TWh (Terawattstunden) Strom jährlich verbrauchen. "In Rechenzentren sind zwei kritische Infrastrukturen, nämlich Strom und Daten, verbunden und beeinflussen sich gegenseitig", sagt Rien Dijkstra, Managing Director bei Infrarati. Über einen geschickten Umgang mit dem Thema Stromverbrauch lässt sich zukünftig vielleicht sogar Geld verdienen. So könnten IT-Nutzer beispielsweise größere Mengen Strom durch die Abarbeitung umfangreicher Batches kostengünstig abnehmen oder in Batterien zwischenspeichern, wenn zu viel im Netz ist. Sollte Energie gerade knapp sein, könnte das RZ auf die wesentlichen Funktionen heruntergefahren werden.

Trend 3: Das RZ integriert sich in seine geografische Umgebung

Das Rechenzentrum und seine Nachbarschaft können zu einer funktionalen Einheit verschmelzen, etwa, wenn Abwärme nach nebenan verkauft wird oder erneuerbarer Strom in der Nähe reichlich verfügbar ist. Die Lokation gewinnt damit weiter an Bedeutung. So sagt Paul Sharp, Buildings Manager beim Hoster Telehouse: "Wir bieten 8 MW Wärme als Verkaufsprodukt an." Kombiniert mit erneuerbarer Energie, ergibt sich durch solche Aktivitäten eine sehr gute Umweltbilanz fürs RZ. Einige Beispiele: Die im Bau begriffenen Greenfield Datacentres in Norwegen nutzen ausschließlich erneuerbare Wasserenergie. Rund um das RZ entstehen derzeit Gärtnereien, die mit der Abwärme Gemüsepflanzen züchten wollen. Ein anderes Projekt, Fjord IT, wie der Name schon sagt, an einem Fjord gelegen, will seine Abwärme Fischfarmen für wärmeliebende Arten zur Verfügung stellen.

Andere widmen existierende Gebäude um: In Finnland werden aufgegebene Papierfabriken zu Rechenkathedralen - auch die Papierfertigung brauchte massenweise Strom und Wasser. In Norwegen integriert LefdalMine ein Rechenzentrum in ein stillgelegtes Bergwerk, das seinen Strom von fünf unabhängig voneinander arbeitenden Wasserwerken in der Nähe bezieht und mit Seewasser gekühlt wird. Green Mountain, ebenfalls aus Norwegen, nutzt eine von der NATO einst in einen Berg gesprengte Lagerhalle für Rechenzwecke - auch hier erfolgt die Kühlung direkt mit Seewasser.

Trend 4: Optimierter Energieverbrauch durch IT-Steuerung

Bisherige Optimierungsbemühungen in Sachen Stromverbrauch im Data Center setzten meist bei der Kühlung an. Künftig sollen auch Rechenlasten so gesteuert werden, dass sie optimal das selbst- oder fremderzeugte Strompotential nutzen. Das EU-Forschungsprojekt GAMES (Green Active Management of Energy in IT Service Centres), an dem aus Deutschland der IT-Anbieter Christmann und die Universität Stuttgart teilnehmen, will durch applikationsabhängige Steuerungsmechanismen der RZ-Ressourcen direkt in der IT Strom sparen. Bisherige, etwa von Uptime oder Green Grid vorgeschlagene Vorgehensweisen zur Energieoptimierung setzen meistens an der Hardware an, was angesichts der höchst unterschiedlichen Leistungs- und Verfügbarkeitsanforderungen an Anwendungen suboptimal ist. GAMES hingegen hat Sensoren für sehr detaillierte Messungen des Stromverbrauchs der einzelnen RZ-Komponenten entwickelt. Hinzu kommt eine Open-Source-Plattform für die Echtzeitüberwachung der Systeme und ihre Steuerung, die Energieverbrauch, Leistung, Ressourceneinsatz und Servicequalität optimieren soll. Sogenannte Green Performance Indicators und eine wachsende Sammlung von Best Practises für die applikationsspezifische Konfiguration von Hard- und Software ergänzen das Programm. Zudem wurde eine Methode entwickelt, mit der sich Regeln für einen energieeffizienten und dennoch den Qualiltätsansprüchen genügenden Applikationsbetrieb beschreiben lassen. Alle Projektergebnisse sind unter http://www.green-datacenters.eu öffentlich zugänglich.

Hewlett-Packard propagiert inzwischen das Konzept des (fast) netzunabhängigen Net-Zero Energy Datacenter. Es besitzt eigene Ressourcen zur Erzeugung erneuerbarer Energie, vermeidet Leerlauf von Servern und Speichern und verringert intelligent stromaufwändige Aktivitäten wie Kühlung. Zudem harmonisiert es über den Tag den Energieverbrauch mit der Erzeugung und minimiert so den Energieaustausch mit dem Grid. Wichtigster Mechanismus hierbei ist die anwendungsangepasste Lastverschiebung. Cullen Bash, Interim Director der Sustainable Ecosystem Research Group bei HP, verspricht sich von dem Ansatz eine Energieeinsparung von mindestens 30 Prozent und eine um 80 Prozent verringerte Abhängigkeit vom Stromnetz. In Palo Alto wurde bereits ein Vorzeigesystem aufgebaut.

Trend 5: Rechenzentren werden abgespeckt und modularisiert

"Das wichtige an einem Rechenzentrum ist die Rechenleistung", sagt Microsoft-Mann Belady. Das gesamte Drumherum aus Kühlung, Klimatisierung, Schränken etc. sollte weitestgehend abgespeckt werden. "Am Ende steht flächendeckend Tier 1!", fordert der Manager, also ein RZ mit minimalen Klima-, Redundanz- und Sicherheitsvorkehrungen. Zur Ballastreduzierung gehört auch, dass Komponenten weitestgehend standardisiert und modularisiert werden. Microsoft setzt dieses Prinzip in seinen neueren Rechenzentren mit selbst entwickelten Modulen um, den sogenannten IT Pre-Assembled Containern (IT PAC). Modularität werde zum wichtigen Lösungskonzept für viele Rechenzentrums-Neubauten oder Erweiterungen bestehender Anlagen, sagt nicht nur Belady. Kritiker wie Ashley Davis, Geschäftsführer des Londoner Rechenzentrumsbetreibers Infinity, wenden ein, dass Modularität sich vor allem für überschaubare Rechenzentren lohne. Große Rechenzentren ließen sich nach wie vor günstiger aus einem Guss bauen.

In Zukunft werde der Ausfall eines einzelnen Servers oder Speichers durch intelligente Selbstheilungsmechanismen und besonders robuste Anwendungen kompensiert, erwartet Belady. Die Last werde bei Problemen automatisch woanders hin verschoben, die Komponente bei nächster Gelegenheit ausgetauscht. Mit der Frage, was dann mit dem Müll geschieht, will sich The Green Grid beschäftigen. "Wir machen Recycling von Elektroschrott zu unserem Thema", sagt Jack Pouchet, Direktor Energieinitiativen bei Emerson Power und für Europa-Koordinierung zuständiges Vorstandsmitglied bei The Green Grid.

Trend 6: Neue Netze fürs Cloud-RZ

Auch in den Netzwerken in und zwischen Rechenzentren stehen große Veränderungen an. Mindestens zwei bis drei GBit/s Durchsatz müssen es heute schon sein. Und fünf bis zehn Prozent des Data Center-Budgets sollten in die Verkabelung fließen, empfiehlt jedenfalls der RZ-Ausrüstungsspezialist Anixter in einem Informationsfilm. Maßgebliche Richtlinie ist hier die aus den USA stammende TIA 942A respektive das Pendant ISO/IEC 24764. Für Kupferkabel auf der Horizontalebene werden Cat-6- oder -6A-Kabel vorgeschlagen, bei Glasfaser die Kabelklassen OM3 oder OM4. Standardgeschwindigkeit ist heute 10G. Für 40/100 GBit/s gibt es zwar inzwischen mit 802.3ba eine Norm, doch dürften diese Transportmechanismen wohl vorläufig eher selten eingesetzt werden. Switche sollten entweder in der Serverreihe (End/Middle of the Row) oder aber auf dem Rack sitzen, beispielsweise bei bestimmten Blade-Architekturen. Letzteres bringt allerdings eine hohe Herstellerabhängigkeit mit sich.

Software Designed Networking (SDN) im RZ

Ein wichtiger neuer Trend in diesem Kontext heißt Software Designed Networking (SDN). Gemeint ist die routerunabhängige, über einen Controller außerhalb des Datenpfades laufende Definition von Netzverbindungen, die auch parallel für mehrere Anwendungen über dieselbe Leitung laufen können. Gerade haben Brocade und NEC auf diesem Sektor eine enge Kooperation angekündigt, was Cisco in seiner Rolle als führender Anbieter von Netzwerkinfrastruktur herausfordern dürfte. Brocade will eine Koexistenz klassischen Networkings mit SDN auf derselben Infrastruktur ermöglichen. NEC hat mit dem Programmable Flow Controller den ersten Controller für die derzeit populärste SDN-Technologie OpenFlow im Programm. Auch die Gemeinde der Metro-Ethernet-Provider wünscht sich OpenFlow, um schneller als bisher Verbindungen über die Grenzen einzelner Providernetze hinweg anzubieten. Dann können beispielsweise leichter Lasten zwischen einzelnen Cloud-Rechenzentren verschoben werden.

Trend 7: Die RZ-Branche organisiert sich europaweit

Auf der europäischen IT-Messe Datacentres 2012 in Nizza, die vom britischen Marktforschungs- und Beratungsunternehmen Broad Group organisiert wird, gründete sich die EUDCA (European Datacenter Association), die sich als Lobby der Interessen von RZ-Betreibern, -Nutzern und -Lieferanten versteht. Um unter anderem EU-Regulierungsinitiativen, etwa zum Energieverbrauch, zu beeinflussen, hat der Verband ehemalige hochkarätige Europapolitiker angeworben.

EUDCA konnte zum offiziellen Start im Mai 2012 bereits auf 50 Mitglieder verweisen, rund 200 aus ganz Europa werden in den ersten zwei Jahren angestrebt. Wichtigste Ziele der neuen Industrieorganisation neben dem Lobbying: Europäische Zertifizierungsnormen für Data Center, damit hiesige Betreiber nicht mehr für viel Geld Zertifizierungen vom amerikanischen Uptime-Institut einkaufen müssen. Darüber hinaus geht es auch um Austausch und Ausbildung.

Dieser Artikel basiert auf einem Beitrat unserer Schwesterpublikation Computerwoche. (cvi)