Dynamic Data Center: Befreiungsschlag für Rechenzentren

26.06.2006 von Klaus Manhart
Die traditionellen Rechenzentren mit ihrer niedrigen Serverauslastung und aufwändigem, teurem Management stehen vor einem gravierenden Wandel. Künftig sollen sie flexibel sein, gemeinsam nutzbare virtuelle Ressourcen beinhalten und dynamisch auf alle Anforderungen reagieren.

Das klassische Rechenzentrum steckt in einer Sackgase. Die Silo- und n-tier-Architekturen, die die heutige IT-Landschaft bestimmen, führen zu niedriger Ausnutzung und aufwändigem Management. Am Front-End verrichten Web- und Terminalserver ihre Dienste, Anwendungen laufen auf meist fest zugewiesenen Applikationsservern und das Back-End liefert die nötigen Datenbankservices. Dahinter versorgen dann noch Storage-Systeme alle Server mit Speicherplatz.

Das größte Problem dabei ist, dass jede Anwendung einen eigenen Server, eine eigene Datenbank und ein eigenes Storage-System erhält. Um Engpässe bei Systemausfällen zu vermeiden, sind diese meist auch noch doppelt ausgelegt.

Die Folge ist ein nahezu unbegrenztes und chaotisches Wachstum von Servern und Serverfarmen, das hohe Kosten verursacht. Die Hardwarekomponenten sind im Normalfall nur gering ausgelastet, denn jeder Silo hat aus Gründen der Ausfallsicherheit ein Maximum an Ressourcen zur Verfügung, um auftretende Spitzenbelastungen abzufangen. Studien wie von Gartner sprechen von einem durchschnittlichen Serverauslastung von 25 Prozent und weniger – bei gleichzeitig sehr hohem Administrationsaufwand.

Das Ende der statischen, aufgeblasenen und aufwändig administrierbaren Rechenzentren ist für die meisten Experten deshalb absehbar. Sie sollen ersetzt werden durch eine neue Generation von IT-Infrastrukturen: Virtualisierte und automatisierte IT-Landschaften, mit einer flexibleren, leicht managbaren IT - bei gleichzeitig sinkenden Kosten. Damit diese Vision Realität wird, müssen die Server- und Speicherkapazitäten sich den einzelnen Verbrauchern frei zuweisen lassen und als universeller Ressourcenpool zur Verfügung stehen. Zudem sollte dieser Vorgang möglichst schnell und automatisiert ablaufen.

Dynamic Data Center – Services im Vordergrund

So genannte „Dynamic Data Center“ (DDC) sind ein Konzept, um den starren Rechenzentren mehr Flexibilität zu verleihen. Sie sollen die IT aus ihren alten Strukturen lösen, sie wirtschaftlicher und zuverlässiger machen und eine schnellere Reaktion auf aktuelle Business-Anforderungen erlauben.

Im Vordergrund stehen beim DDC nicht Hardware oder Software, sondern die Services, die dem Anwender zur Verfügung gestellt werden sowie Service Level Agreements (SLAs). SLAs definieren die Qualität der bereitgestellten Dienste – also etwa Antwortzeiten, Verfügbarkeiten und ähnliche Dinge. Die Services sollen zu möglichst geringen Kosten bei größtmöglicher Flexibilität angeboten werden.

Zu diesem Zweck baut das DDC auf neuen Hardware- und Software-Architekturen auf. Ressourcenpools lösen dabei die bisherige n-tier-Architektur ab. Ergänzt wird die Hardware- und Software-Architektur durch Konzepte zur Integration in den bestehenden Betrieb.

Eine große Rolle sollen dabei künftig auf Anwendungsebene die “Service-Oriented Architectures“ (SOAs) spielen – schlanke Funktionsblöcke, die sich schnell und dynamisch kombinieren lassen. Sie sollen die hochkomplexen Business-Anwendungen ablösen, die nur mit hohem Aufwand integrierbar sind. Über SOA hingegen lässt sich ein neuer Geschäftsprozess sehr schnell auf Anwendungsebene abbilden. SAPs Netweaver Plattform beispielsweise ist eine Umsetzung der SOA-Architektur, die SAP als Grundlage für die Entwicklung neuer Lösungen und zur Integration der existierenden Anwendungen dient.

Dynamische Anpassung

Während SOAs noch weitgehend Neuland sind, gibt es schon sehr viele Anwendungen mit hoher Flexibilität auf der Infrastrukturebene. Dazu gehören etwa Web-, Terminal-, Print- und Fileservices. Sie lassen sich dynamisch anpassen: Die Services können beispielsweise auf mehreren Systemen parallel laufen („dynamisches Scale-out“) oder sich im laufenden Betrieb zusätzlich Ressourcen dazunehmen und auch wieder abgeben („dynamisches Scale-up“). Dadurch können IT-Ressourcen flexibler genutzt und deren Nutzungsgrad gesteigert werden.

In der optimalen Ausbaustufe des DDC kann jeder Service auf jedem System laufen und innerhalb kurzer Zeit zwischen den Systemen wechseln. Voraussetzung dafür ist allerdings die Trennung der Services von dedizierten Servern. Hier bietet sich vor allem Virtualisierung als Technologie an.

Eine DDC-Architektur sieht danach wie folgt aus: Im DDC sind alle Hardware-Ressourcen in einem Pool zusammengefasst und lassen sich nach Bedarf flexibel nutzen. Der Betrieb dieser virtuellen und realen Ressourcen ist weitgehend automatisiert. Sollten Ressourcen ausfallen oder knapp werden, stößt das DDC automatisch korrigierende Aktionen an, die auf Basis von vordefinierten Regeln erfolgen. Grundlage dieser Regeln sind die konkreten Geschäftsprozesse und entsprechenden Vereinbarungen mit den Nutzern der Services. Diese sind in SLAs festgehalten. Idealerweise erfolgt eine Verrechnung der Services nach Nutzungsgrad.

Konkrete Umsetzung: Triole

Federführend auf dem Gebiet der DDC ist Fujitsu Siemens. Deren Konzept „Triole“ ist eine konkrete Umsetzung der Idee des DDC. An diesem Beispiel und praktischen Produkten soll die Idee des DDC weiter veranschaulicht werden.

Triole stellt Produkte und Services bereit, die erste Schritte in Richtung des DDC erlauben. Dies erfolgt in enger Zusammenarbeit mit Anbietern von Infrastruktur- und Geschäftsanwendungen wie Microsoft, Oracle, SAP und anderen. Das Ergebnis sind dynamische Infrastrukturen für die Architekturen dieser Hersteller wie NetWeaver /Adaptive Computing von SAP, Oracle 10g und die „Dynamic System Architecture“ (DSI) von Microsoft.

Die Basis von Triole bilden die drei Kerntechnologien Virtualisierung, Automatisierung und Integration – daher auch der Name. Virtualisierung entkoppelt die Applikationen und Daten von der konkreten Hardware. Dadurch kann Triole die Hardware-Ressourcen in einem Pool sammeln und den Anwendungen nach Bedarf zuweisen, so dass sie besser ausgelastet sind.

Automatisierung und Integration

Durch die Automatisierung werden die IT-Infrastrukturen nach vorher definierten Regeln an die Umgebung angepasst – ohne dass ein Mensch eingreifen muss. Diese Regeln überwachen die IT-Landschaft aus Betriebssystem-, Applikations- und Server-übergreifend und sorgen dafür, dass die Ressourcen entsprechend den aktuellen Anforderungen dynamisch verteilt werden. So ist es möglich, auf unterschiedlichste Anforderungen zu reagieren und Anwendungen und Systeme zu starten, zu stoppen sowie Kapazitäten zu verlagern. Dadurch bietet Triole ein regelbasiertes Workload-Management über eine ganze Anwendungslandschaft hinweg.

Integration schließlich ist die schnelle und sichere Implementierung dieser Technologien über das komplette Spektrum der IT-Infrastruktur hinweg inklusive Server, Storage, Netzwerken und Middleware-Elementen.

Bei der Umsetzung von Triole hat FSC einen sehr pragmatischen Ansatz gewählt. Im Vordergrund stehen zunächst Produkte und Lösungen, die kurzfristig dazu beitragen, die Flexibilität und Effizienz im IT-Betrieb zu erhöhen. Dazu gehören Hardware, Server- und Speicherlösungen sowie Management- und Automatisierungssoftware.

Zwei Virtualisierungskonzepte

Bei der Virtualisierung setzt Triole auf zwei Konzepte: Zentrales Deployment und virtuelle Maschinen.

Beim zentralen Deployment befinden sich Applikationen, Services und Server-Betriebssysteme auf einem zentralen Storage-System. Deployment- und Netboot-Tools sorgen dafür, dass die entsprechende Software nach Bedarf auf einen oder mehrere Server gebracht wird.

Der Vorteil: Ohne aufwändig zu pflegende Cluster-Architektur ist bei einem Server-Ausfall die Anwendung in wenigen Minuten auf einem anderen System wieder aufgesetzt. Mit geringen finanziellen Mitteln lässt sich damit eine höhere Verfügbarkeit realisieren.

Zudem kann Triole so das Aufgabengebiet eines Servers schnell umwidmen. Wird eine Applikation wie die Lohnbuchhaltung nur am Ende des Monats gebraucht, läuft sie nur in diesem Zeitraum auf den Servern. Ansonsten sind die Systeme für andere Anwendungen frei.

Durch diese flexible Zuordnung von Serveranwendungen zu Applikationen kann Triole den Nutzungsgrad steigern, Lastspitzen für Anwendungen dynamisch bedienen und Wartungsaufgaben an Systemen erleichtern. Gleichzeitig sinkt der Administrationsaufwand.

Virtuelle Maschinen

Weiter steigern lässt sich die Effizienz durch Automatisierung. Fällt ein Server etwa aus oder treten Lastspitzen auf, kann das DDC durch vordefinierte Regeln automatisch Aktionen wie das „Betanken“ oder Booten von zusätzlichen Rechnern oder Ersatzsystemen ausführen.

Das zweite Standbein bei der Virtualisierung sind virtuelle Maschinen. Hier setzt Fujitsu Siemens bei Triole auf VMware ESX. VMware ESX ist eine virtuelle Infrastruktur, auf der auch r ressourcenhungrige, unternehmenskritische Applikationen betrieben werden können. Unterschiedliche Betriebssysteme mit einer dedizierten Applikation können damit auf einem realen Server in einer virtuellen Maschine zum Laufen gebracht werden. So lassen sich beispielsweise mehrere parallele virtuelle Maschinen unter Linux und Windows auf einem einzigen physikalischen Server nutzen.

RemoteDisplay und ASCC

Beide Virtualisierungskonzepte stellt FSC bei seinen Produkten wie den Intel-basierten Primergy-Servern zur Verfügung. Zentrales Betanken ist bei den Primergy-Servern unter Linux und Windows über RemoteDeplay möglich. Als virtuelle Maschine wird VMWare ESX eingesetzt.

Mit dem Server-Management-Werkzeug RemoteDeploy können zusätzliche Server mit Software betankt werden. Sie tauscht innerhalb von circa 15 Minuten die gesamte Software eines Servers aus.

Zudem lässt sich dieser Vorgang völlig automatisch und für mehrere Server gleichzeitig ausführen. Abhängig von der Lastsituation werden dann beispielsweise Server mit Anwendungen niedriger Priorität für die hochpriorisierten Aufgaben abgezogen.

Die Automatisierung erfolgt über das Modul ASCC (Adaptive Services Control Center). ASCC überwacht Server und kontrolliert deren Verfügbarkeit und Auslastung. Im Bedarfsfall startet es automatisch und prioritätengesteuert erforderliche Aktionen. Das System kann damit auch als Basis für selbstheilende und selbstverwaltende Systeme dienen.

Durch die Kombination von VMware mit ASCC lässt sich der Virtual-Machine-Ansatz um Automatisierung ergänzen. In einem ersten Schritt überwacht Triole damit die VMware Server sowie die darunter liegenden virtuellen Maschinen. Sollte nun beispielsweise ein VMware Server ausfallen, startet es automatisch und regelgesteuert die virtuellen Maschinen auf anderen VMware Servern neu.

Hardware-Plattformen

Hardware-seitig stehen für das DDC von FSC mehrere Server-Plattformen zur Verfügung. Für Windows und Linux sind das Primergy, Primergy BladeFrame und Primequest.

Im Segment der Intel-basierten Primergy-Server deckt die aktuelle Blade-Technologie bereits ein weites Einsatzfeld ab. 80 Prozent aller Anwendungen lassen sich heute mit 2-Way- und 4-Way-Servern betreiben. Die Primergy BX630 Dual-Blades ermöglichen das kosteneffizient mit einer Architektur. Dort, wo 4-Way-Power notwendig ist, werden einfach 2 Dual-Prozessor-Blades ergänzt. Das reduziert die Komplexität, da immer nur ein Baustein notwendig ist.

Bei Spitzenlasten ist schnelle Reaktion wichtig, um Service-Levels einzuhalten. Mit BladeFrame werden Server-Ressourcen innerhalb kurzer Zeit zur Verfügung gestellt. Die gemeinsam mit dem amerikanischen Spezialisten Egenera entwickelten Lösungen erlauben eine applikationsübergreifende Virtualisierung von Server-Ressourcen. Die Enterprise-Server-Lösung basiert auf anonymen, austauschbaren Server-Knoten und schafft eine grundlegende Unabhängigkeit zwischen Server-Hardware, Betriebssystem und Anwendungs-Software.

Primequest und Primepower

Mit Primequest bietet Fujitsu Siemens eine Hardware-Basis für den Betrieb von geschäftskritischen Datenbanken im Linux- und Windows-Umfeld. Für Kunden, die eine Konsolidierung von Microsoft SQL Server-Datenbanken und der neuen Version SQL Server 2005 durchführen wollen, ist dies eine geeignete Plattform.

Für Unix-Umgebungen sind die Primepower Enterprise Server gedacht. Sie bieten zusammen mit entsprechenden Softwareprodukten zahlreiche Virtualisierungseigenschaften, die eine fein-granulare und dynamische Zuordnung von Ressourcen zu Services erlauben.

Auf der physikalischen Ebene erlaubt die Primepower-Architektur die Aufteilung eines physikalischen Servers in logische Partitionen. Der Ressourcemanager ARMTech kann in einer zweiten Ebene die Ressourcen noch feiner zwischen unterschiedlichen Applikationen verteilen. Die Zuordnung lässt sich dabei im laufenden Betrieb verändern. Mit so genannten ESCoD (Enhanced Server Capacity on Demand) Prozessoren können Lastspitzen dynamisch abgedeckt werden. Die Verrechnung dieser zusätzlichen Betriebsmittel erfolgt auf Nutzungsbasis.

Lifecycle Management

Um die riesigen Datenmengen in den Griff zu bekommen wurde das Information Lifestyle Management installiert. Es stellt Mittel und Methoden bereit, das rasante Datenwachstum zu bewältigen und gleichzeitig gesetzliche Regelungen zur Datenspeicherung zu erfüllen. Hierzu hat FSC ein strukturiertes Speichernetzwerk eingerichtet, das es erlaubt, Regeln zu definieren, wie mit welcher Information verfahren wird.

easyXchange ist eine einfache E-Mail-Lösung, die auf Windows Server 2003 und Exchange Server 2003 basiert. Neben der Skalierbarkeit stellt easyXchange eine Hochverfügbarkeit der Mailserver sicher, und ermöglicht ein eMail-Life Cycle Management. Damit wird der gesamte Lebenszyklus von E-Mails und elektronischen Dokumenten erfasst und eine sichere und flexible Verwaltung und Archivierung der Messaging-Ressourcen gewährleistet. Die Lösung erfüllt alle gesetzlichen Vorschriften für die Archivierung von E-Mails.

Die Speicherlösung CentricStor ist eine Virtual Tape Library. Nach außen hin stellt sich das virtuelle Archiv als eine Vielzahl von Bandlaufwerken dar, intern basiert es aber auf Festplattentechnologie. Es verbindet damit die Schnelligkeit von Festplatten mit der Zuverlässigkeit von Magnetbändern – über Betriebssystem- und Rechenzentrumsgrenzen hinweg.

Dienstleistungen

CentricStor entkoppelt den Online-Speicher von der Archivierungs- und Backup-Umgebung. Die Integration in bestehende IT-Landschaften mit Mainframes, Unix- und Windows-Systemen erfolgt dadurch völlig transparent, wodurch Anwendungen und Backup-Szenarien unverändert weiterlaufen können. Zudem reduziert es die Backupzeiten erheblich, da es die Daten auf Festplatten zwischenspeichert, bevor sie auf dem Band landen. Das ermöglicht eine signifikante Reduktion von Server-Stillstandzeiten.

Mit dem Konzept des DDC sind nicht nur Technologien verbunden, sondern auch Dienstleistungen von Fujitsu Siemens Computers und seinen Partnern. So gehören zu jeder Infrastrukturlösung, die im Rahmen des DDC zum Einsatz kommt, definierte Professional Services wie Consulting, Systemintegration und Migration.

Dabei deckt das Dienstleistungsportfolio den gesamten Lebenszyklus eines DDC-Projektes ab: Am Anfang stehen die Analyse der Kundenbedürfnisse durch Assessments und die Erarbeitung entsprechender Lösungsvorschläge. Ergänzt wird das Consulting durch spezifische Serviceangebote wie ITIL (IT Infrastructure Library)-Prozessberatung, RoI-Berechnungen bzw. Kosten-Nutzen-Analysen und Finanzierungsprogramme sowie Beratung bei der Vereinbarung von Service Level Agreements mit den Anwendern.

Auch für die Implementierung stehen Service-Experten zur Verfügung, die die neue Lösung in die vorhandenen Infrastrukturen integrieren und bei Bedarf weiterhin für den reibungslosen Betrieb sorgen.

Fazit

Beim Versuch, die verkrusteten ineffizienten Rechenzentren zu erneuern sind erste Schritte in Richtung Dynamic Data Center gemacht. DDC baut auf neuen modularen Software-Architekturen auf, wobei Ressourcenpools die bisherige n-tier-Architektur ablösen.

Das von Fujitsu Siemens verfolgte Triole-Konzept setzt die Ideen des DDC konkret um. Es führt Virtualisierungs-, Automatisierungs- und Integrationstechnologien dabei in eine bestehende IT-Landschafte ein.

Die heute unter Triole verfügbaren Mittel stellen allerdings nur erste Schritte in Richtung Dynamic Data Center dar. In den nächsten Stufen will FSC die Virtualisierungs- und Automatisierungsfunktionen weiter ausbauen und die Integration in Templates beschreiben. Bei der Virtualisierung liegt der nächste Schritt in der Einbindung von Storage Area Networks (SANs). Bei der Automatisierung ist das Ziel, garantierte Service Levels automatisch aufrecht zu erhalten. Dazu sollen bei Systemausfällen oder zu hoher Systemlast Server und Storageressourcen synchronisiert im laufenden Betrieb umgeschaltet werden. (ala)