Kampf im Rechenzentrum

Welche Server-Plattform ist die Beste?

05.02.2010 von Wolfgang Herrmann
Die Rechenzentren stehen im Zeichen des Wandels. Waren die Data Center früher von einer starren IT-Infrastruktur geprägt, konkurrieren heute neue und unterschiedliche Server-Plattformen, die modular, flexibel, effizient und einfach vom Administrator gewartet werden können.

Verschiedene Server-Plattformen drängen aktuell in das traditionelle Data Center, das zum hohen Anteil von Mainframes geprägt ist. Doch laut Gartner-Analyst Andrew Butler, haben herkömmliche Server-Technologien und der Mainframe aus seiner Sicht eine Reihe von Nachteilen, die sich nicht mehr mit den Anforderungen an eine moderne IT-Infrastruktur decken.

In historisch gewachsenen Server-Umgebungen verknüpfen Unternehmen die Systeme und deren Lebenszyklen fest mit bestimmten vordefinierten Unternehmensanwendungen. Diese Anwendungen bilden Funktionssilos, die in der Regel sehr stark mit der Server- und Storage-Hardware verknüpft sind. Dieses veraltete Konzept ist aus heutiger Sicht ineffizient, nicht flexibel genug und zu teuer.

Blade-Server im Überblick
Primergy BX900
Der PRIMERGY BX900 bietet in einem 10 HE-Chassis Platz für bis zu 18 Server Blades.
HP C3000
Das Blade Center HP C3000 kann mit vier doppelten oder acht einfachen Blades bestückt werden. <br/>(Bild: Hersteller)
IBM BladeCenter-S
IBMs BladeCenter-S ist als Mittelstandlösung konzipiert.
Sun Blade 6000
Sun ermöglicht in seiner Blade-Serie unterschiedliche Ausbaustufen mit bis zu 48 Sun Blade Server-Modulen.
Dell PowerEdge M1000e
Das Dell PowerEdge M1000e kann 16 Blades mit 2 Prozessorsockeln aufnehmen.
IBM Director
Der IBM Director ist das zentrale Verwaltungswerkzeug für Blades, Rack-Systeme und weitere Rechner von IBM.
HP Capacity Advisor
Der HP Capacity Advisor gibt Hilfen bei der Auswahl des richtigen Modells in Abhängigkeit von der geforderten Last.
FTS
Durch Configuration-Tools wie beispielsweise jenem von FTS für die Primergy-Reihe lässt sich der Stromverbrauch des gewählten Modells im Vorfeld bestimmen.

Das Ende dieser statischen, aufgeblasenen und aufwändig administrierbaren Rechenzentren ist für die meisten Experten deshalb absehbar. Sie sollen ersetzt werden durch eine neue Generation von IT-Infrastrukturen: Virtualisierte und automatisierte Server-Landschaften, mit einer flexibleren, leicht managebaren IT - bei gleichzeitig sinkenden Kosten. Damit diese Vision Realität wird, müssen die Server- und Speicherkapazitäten sich den einzelnen Verbrauchern frei zuweisen lassen und als universeller Ressourcenpool zur Verfügung stehen. Zudem sollte dieser Vorgang möglichst schnell und automatisiert ablaufen.

Virtualisierung spart Ressourcen

In der neuen Welt der Virtualisierung lässt sich das Aufsetzen von Servern und entsprechenden Anwendungen deutlich verkürzen, erläutert der Gartner-Analyst Butler. Zudem könnten Unternehmen die Rechner besser auslasten. Damit verwischen auch die einst unverrückbaren Grenzen zwischen Server-, Storage- und Netzwerk-Ressourcen. Durch das Zusammenfassen solcher IT-Assets zu virtuellen Pools, die sich je nach Bedarf anzapfen lassen, gewinnen Unternehmen Flexibilität und können schneller auf Veränderungen reagieren. Butler spricht von einem "Unified-Fabric"-Konzept, dessen Entwicklung aber noch Zeit brauche. Dazu gehörten unter anderem Automatisierungsfunktionen, intelligentere Betriebssysteme und ausgefeilte Management-Tools für das Verwalten und Steuern der IT-Ressourcen.

Blade-Server sind im Rechenzentrum der Zukunft gesetzt.
Foto: Hewlett-Packard

In der näheren Zukunft erwartet der Gartner-Experte eine Koexistenz des alten (Mainframe-)Paradigmas mit einer neuen Server-Architektur. Letztere sei gekennzeichnet durch besonders "netzwerkfreundliche" Rechner, Blade-Formfaktoren und gepoolte Rechen- und Speicherressourcen. Die großen IT-Hersteller verwenden dazu Begriffe wie "convergent" oder "universal". Erst kürzlich etwa stellte Hewlett-Packard sein Konzept der Converged-Infrastructure vor, das bisher isolierte IT-Domänen für Applikationen, Rechner, Speicher, Netze und Gebäuderessourcen integrieren soll.

Die Strategien der Hersteller

In diesem Szenario positionieren sich die Server-Hersteller mit unterschiedlichen Strategien. Zu den führenden Anbietern zählen Dell, Fujitsu, HP, IBM und Oracle mit Sun. Neu auf dem Radarschirm ist Cisco aufgetaucht. Die Netzwerk-Company versucht mit ihrer auf Blade-Systemen basierenden "Unified-Computing"-Strategie vor allem im Rechenzentrum Fuß zu fassen. Zwar falle die Gesamtwertung für Cisco gegenüber den etablierten Server-Anbietern noch niedrig aus, kommentiert Gartner-Analyst Butler. Doch die starke Marktpräsenz des Netzspezialisten werde sich mittelfristig auch im Server-Markt positiv bemerkbar machen.

Eine ähnliche strategische Stoßrichtung beobachtet der Gartner-Mann bei Oracle. Die Company vergrößere ihre Marktchancen, indem sie Anwendungen, Infrastruktursysteme und Hardware (über den Zukauf von Sun) eng aufeinander abstimme und als integrierte Lösungen anbiete. Ein Beispiel dafür ist die Exadata Database Machine, ein vorkonfiguriertes Paket aus Hardware von Sun und Oracle-Software, das sich vor allem für Data-Warehouse-Anwendungen und Online Transaction Processing (OLTP) eignen soll. Zu den Unternehmen, die ihre Märkte verstärkt durch Akquisitionen ausweiten, zählt Gartner neben Oracle auch IBM und Hewlett-Packard. Andreas Zilch, Analyst bei der Experton Group, spricht in diesem Kontext von einer "vertikalen Integration" mittels eines kompletten Stacks. Dieser von Cisco eingeleitete Trend habe mittlerweile drei Koalitionen (Cisco/EMC/VMware, Sun/Oracle, Fujitsu Technology Services/Netapp) hervorgebracht. Andere würden folgen und die bestehenden Portfolios zum Teil noch weiter ausgebaut.

Ein weiterer strategischer Ansatz der Server-Anbieter ist im Bereich Virtualisierungs-Infrastruktur zu erkennen. Hier positionieren sich vor allem HP, IBM und VMware. Bei Letzterem handelt es sich zwar nicht um einen großen Server-Hersteller, wohl aber um ein Unternehmen, das auf der Ebene der Softwareplattformen und Betriebssysteme den Markt verändert. Eine ähnliche Rolle spielt VMware im Bereich Cloud-Infrastruktur, wo sich insbesondere IBM, Cisco und HP strategisch aufstellen. Geht es um die veränderte Rolle der Server in einem Umfeld dynamisch zuweisbarer IT-Ressourcen und Blade-Formfaktoren, haben HP, IBM und Cisco nach Einschätzung der Gartner-Experten bislang die größten strategischen Anstrengungen unternommen.

Ganz anders die Situation im Volumenmarkt mit x86-Servern unter Windows oder Linux, wo Kunden in erster Linie günstige Preise und Effizienz erwarten. Hier sieht Gartner vor allem Dell gut positioniert. Doch die Texaner sind nicht allein. Mit seinem breiten Angebot will sich Hewlett-Packard auch in diesem Segment eine starke Position verschaffen. Bei all den unterschiedlichen Ansätzen sollten Anwender nicht vergessen, dass es den Herstellern unterm Strich vor allem um mehr Einfluss und mehr Marktanteile gehe, warnt Butler. Trotz aller Standardisierungseffekte wollten sie es Kunden immer schwerer machen, den Lieferanten ohne hohen Kostenaufwand zu wechseln.

Unix-Plattformen bleiben im RZ

Welche Rolle spielen Unix-Server im Rechenzentrum der Zukunft? - Entgegen so mancher Prognose, klassische Risc-basierende Systeme unter AIX, HP-UX oder Solaris würden schon bald durch die x86-Konkurrenz ersetzt, sieht Butler durchaus noch eine Daseinsberechtigung für große Unix-Server (siehe auch: x86-Server erobern das Data Center). Zwar werde sich das Wachstum in diesem Markt in den kommenden fünf Jahren in engen Grenzen halten. Doch die durch Multicore- und Multithreading-Techniken bedingten Skalierungsvorteile von Unix-Plattformen trügen dazu bei, dass etliche Unternehmen auch weiterhin geschäftskritische Anwendungen auf den u uServern betrieben. Von den drei verbliebenen Anbietern gibt Gartner IBM die besten Chancen. Big Blue investiere viel in sein Unix-Derivat AIX, insbesondere in Virtualisierungs-Optionen. Damit stärke der IT-Konzern seine Wettbewerbsposition. Ähnlich beurteilt Zilch den Markt: "IBM hat aktuell mit den P6-AIX-Systemen einen deutlichen Entwicklungsvorsprung, der mit der P7-CPU noch einmal untermauert wird."

Solaris-Server fallen zurück

Anders der Erzrivale Sun, dem es bislang nicht gelungen ist, seine technischen Fähigkeiten und Innovationen rund um Solaris-Server in klingende Münze umzusetzen. Die Anteile der Java-Company im Unix-Markt sinken, hinzu kommt die Unsicherheit vieler Kunden, wie es nach der Übernahme durch Oracle weitergehen wird (siehe unten "Was wird aus Suns Servern?"). Hewlett-Packard investiert zwar ebenfalls in seine Unix-Plattformen, ist in Sachen Prozessortechnik aber vom Partner Intel und dessen Itanium-Architektur abhängig. Die großen Verzögerungen bei der Entwicklung der nächsten CPU-Generation Tukwila bereiteten Kunden Kopfzerbrechen, berichtet Butler. Sollten auch die unabhängigen Softwareanbieter (ISVs) eines Tages das Vertrauen in die Unix-Plattformen von Sun und HP verlieren, bliebe womöglich nur noch IBM als ernst zu nehmender Player übrig. Für Kunden wäre das eine schlechte Nachricht, die wahrscheinlich vor allem eine Folge hätte: das weitere Vordringen von Linux auf x86-Servern.

Linux drängt ins Data Center

Bereits im Jahr 2008 war Linux das am schnellsten wachsende Server-Betriebssystem. Dazu beigetragen haben zahlreiche Migrationsprojekte von Unix auf das Open-Source-System, aber auch die zunehmende Unterstützung durch Hardwareanbieter. Auftrieb erhält Linux nicht zuletzt durch die großen Softwarekonzerne. Vor allem die Branchenschwergewichte SAP und Oracle optimieren ihre Business-Anwendungen für Linux und schnüren entsprechende Pakete für Kunden. Die Akzeptanz von Linux-basierenden Rechnern in Mission-Critical-Umgebungen nehme weiter zu, beobachtet Gartner. Gleiches gelte für Cloud Computing und diverse Infrastrukturaufgaben in den Rechenzentren. Vor allem im Vergleich zu Unix- und Mainframe-Systemen böten Linux-Installationen auf x86-Servern eine kostengünstige Alternative. Einschränkungen macht Gartner dabei in Sachen vertikaler Skalierbarkeit, also bei größeren SMP-Systemen (Symmetrical Multiprocessing). Für Enterprise-Systeme etwa empfiehlt Butler deshalb, Linux vorerst in separaten Partitionen auf Mainframes (zLinux) oder Unix-Servern zu betreiben.

Windows-Server holen auf

Geht es um die Skalierfähigkeit, hat Microsoft mit Windows Server 2008 R2 deutliche Fortschritte gemacht. Das Release ist für 64-Bit-Anwendungen konzipiert und unterstützt bis zu 256 Prozessoren. Das klingt beeindruckend, könnte sich angesichts der kurzen Entwicklungszyklen im Hardwarebereich aber schnell als unzureichend erweisen, wie Butler anmerkt. Um im Wettbewerb mit anderen Server-Plattformen mitzuhalten, müsse Microsoft die Weiterentwicklung beschleunigen. Das gelte auch für die zugehörige Management-Software "System Center", die künftig heterogene Umgebungen besser überwachen können müsse. Ein Hindernis für eine raschere Weiterentwicklung sieht der Analyst in der monolithischen Codebasis. Windows brauche eine modularere Struktur, um die aufkommenden unterschiedlichen Server-Rollen und Betriebsmodelle wie etwa Cloud Computing wirksam zu unterstützen.

Hypervisor von Microsoft

Dass die Umsätze mit dem Windows-Server im Jahr 2008 um knapp 16 Prozent gewachsen sind, sei zum Großteil auf das 2008er Release und dessen integrierte Virtualisierungstechnik Hyper-V zurückzuführen. Dennoch hinke Microsoft Konkurrenten wie VMware hinterher, wenn es etwa um fortgeschrittene Funktionen wie die Live Migration von virtuellen Maschinen gehe. Zwar biete auch der Windows-eigene Hypervisor inzwischen diese Option. Doch VMware kam damit zwei Jahre früher auf den Markt. Boden gutgemacht habe Microsoft im Bereich High Performance Computing (HPC). Windows Compute Cluster 2003 und Windows HPC Server gewönnen in diesem Marktsegment an Bedeutung. Trotzdem arbeiten die meisten Hochleistungssysteme in diesem Umfeld nach wie vor unter Linux.

Mainframe geht auch billiger

Klassische Großrechner werden auch künftig fester Bestandteil vieler Rechenzentren sein. Der Trend zur Rezentralisierung und Konsolidierung von IT-Ressourcen begünstigt die anhaltende Popularität des Big Iron. Dass der Mainframe für viele IT-Manager weiterhin attraktiv ist, hat für Butler aber vor allem mit einem strategischen Schachzug IBMs zu tun: dem Konzept der so genannten Specialty Engine. Kunden können damit einen Teil ihrer Arbeitslasten auf speziell zugewiesene Prozessoren innerhalb des Großrechners verlagern. Weil sich die Softwarelizenzkosten im Großrechnergeschäft in der Regel nach der Rechenkapazität bemessen, sparen Kunden Geld, wenn sie Anwendungen nur in der begrenzten Specialty Engine betreiben. Für alle anderen Anwendungen berechnet IBM die Softwarekosten anhand der gesamten Kapazität des Mainframes, was zu deutlich höheren Gebühren führt. Der IT-Konzern offeriert derzeit drei solche Optionen: die Integrated Facility for Linux (IFL) für Linux-Workloads, den System z Application Assist Processor (zAAP), auf dem Java-Code in einer Java Virtual Machine (JVM) läuft, und den System z Integrated Information Processor (zIIP). Letzterer ist für spezielle DB2-Aufgaben und diverse datenzentrierte Arbeitslasten konzipiert.

IBM verfolgt mit dieser Strategie gleich mehrere Ziele. Zum einen reagiert der Konzern auf die Kritik vieler Mainframe-Nutzer, die Softwarekosten seien zu hoch. Tatsächlich machen sie in TCO-Analysen den dicksten Brocken aus. Zum anderen versucht IBM mit den spezialisierten CPUs, neue Arbeitslasten auf den Mainframe zu bringen, die Kunden ansonsten auf günstigeren Server-Plattformen betreiben würden. (hal)

Dieser Artikel basiert auf Beiträgen unserer Schwesterpublikation Computerwoche.