Rechenzentren im Umbruch

Standard-x86-Server vs. RISC-Unix-Systeme

04.06.2009 von Wolfgang Herrmann
Klassische RISC-Unix-Systeme müssen sich im Data Center immer mehr gegen Standard-Server mit x86-Architekturen von AMD oder Intel behaupten. Neben hoher Performance und zunehmenden RAS-Features punkten die x86-Server mit geringeren Kosten und höherer Flexibilität.

Aktuelle Standard-x86-Server verfügen über immer mehr Prozessorleistung bei geringerer Leistungsaufnahme. So ist es kaum verwunderlich, dass diese “herkömmliche“ x86-Server für Rechenzentren immer Interessanter werden. Diesen Trend untermauert auch die Entwicklung der weltweiten Umsätze mit Server-Betriebssystemen. Nach Analysen der Marktforscher von Gartner stagniert der Umsatz mit Unix-Systemen nahezu. In einigen Bereichen sehen die Experten sogar rückläufige Tendenzen, trotz langfristigen Lizenz-, Support- und Wartungsverträgen.

Dagegen entwickeln sich Server-Betriebssysteme basierend auf x86-Prozessor-Architektur wie Linux- oder Windows prächtig. In diesem Bereich sind zweistellige Wachstumsraten keine Seltenheit und die Marktbeobachter prognostizieren weiterhin eine positive Entwicklung in diesem Segment. So rechnen die Gartner-Analysten bis 2013 für Windows- und Linux-Betriebssysteme mit einem durchschnittlichen jährlichen Umsatzplus von mehr als 10 Prozent. Dagegen muss sich HP-UX mit einem Wachstum von 0,2 Prozent begnügen und Sun Solaris rutscht sogar in leicht negative Erwartungen. Einzig IBM mit der Unix-Variante AIX, das auf den selbst entwickelten Power-Prozessoren läuft, verspricht ein mittleres Wachstum von zirka drei Prozent.

Ebenfalls eine ähnliche Tendenz zeichnet sich im Bereich der Server-Systeme (Hardware und Betriebssystem) ab. In diesem Segment sagen die Gartner-Experten im Zeitraum bis 2014 für alle weltweit verkauften Unix-Server ein mittleres Umsatzminus von etwa 0,3 Prozent pro Jahr voraus. Dagegen können Linux- und Windows-Computer mit einem Umsatzzuwachs von 1,5 beziehungsweise 0,7 Prozent rechnen. Ohne den konjunkturellen Abschwung durch die Wirtschaftskrise 2008/2009, unter dem die x86-Server-Systeme laut den Experten außerordentlich leiden, würden die Zahlen weit aus positiver für die Entwicklung der Standard-Serversysteme ausfallen.

Warum Unternehmen Standard-Server nutzen

Der Aufstieg der x86-Server hat vielfältige Gründe. "Die meisten Unternehmen wollen damit schlicht und ergreifend Kosten sparen", beobachtet Gartner-Analyst Andrew Butler. Dabei hätten sie nicht nur die Anschaffungskosten im Auge, sondern beispielsweise auch die immer wiederkehrenden Wartungsaufwendungen. Michael Homborg, Marketing-Manager bei Fujitsu-Siemens Computers (seit 1. April Fujitsu Technology Solutions), bestätigt diese Einschätzung. Schon seit längerem verzeichne der Hersteller eine stark wachsende Nachfrage nach x86-Systemen. Vor allem Kostenvorteile spielten dabei eine entscheidende Rolle. Homborg: "Das geht jetzt in der Krise erst richtig los."

Standard-Rack-Server: Klassische 86-Server-Systeme dringen in immer anspruchsvollere Anwendungsbereiche vor. (Quelle: Dell)

Auch für IBM ist das x86-Segment trotz der margenstärkeren Unix-Server und Mainframes ein wichtiger Markt geworden, erläutert Ingolf Wittmann, Sales Manager in der Systems & Technology Group. Erst kürzlich hat die deutsche Tochter des IT-Konzerns eine eigene Vertriebsmannschaft für x86-Server aufgestellt. Konkurrent Dell buhlt unterdessen mit speziellen Dienstleistungen und Software-Tools um Kunden, "die von einer proprietären Server-Architektur auf eine offene, flexible und standardbasierte Plattform migrieren möchten". Vor allem die angeschlagene Sun Microsystems, die von Oracle übernommen werden soll, haben die Texaner dabei im Visier.

Technische Gründe für x86-Server

Neben Preisvorteilen spricht das breite Angebot an Servern unterschiedlichster Leistungsklassen für die x86-Plattform. Aufgrund der standardisierten Architektur können Unternehmen ohne größeren Aufwand den Lieferanten wechseln und die Abhängigkeit von einem Hersteller verringern. Doch es gibt auch technische Gründe für das x86-Konzept. Für Butler heißt das schlagende Argument Softwarekompatibilität: Fast alle für die Plattform entwickelten Anwendungen laufen unverändert auf x86-Servern sämtlicher Hersteller, ganz im Gegensatz zu RISC-Unix-Systemen, auf denen Applikationen in der Regel auf bestimmte Kombinationen aus Prozessoren und Betriebssystemen wie beispielsweise Suns Sparc-CPUs und das Unix-Derivat Solaris zugeschnitten sind.

Immer weniger Anwendungen würden zudem für sehr große Server geschrieben, berichtet der Analyst. So lege etwa Oracle seine Software zunehmend auf mehrere kleine Rechnerknoten aus. Alle Trends in der Softwareentwicklung beförderten die so genannte Scale-out-Strategie, die nicht mehr auf leistungsstarke Multiprozessor-Server ("Scale-up"), sondern eine Vielzahl einzelner Systeme im Verbund setzt. Diese Art der Skalierung von IT-Ressourcen passe perfekt zu den x86-Rechnern, so Butler. Das prominenteste Einsatzbeispiel liefert Google mit seinen riesigen Server-Farmen, in denen Tausende x86-Rechner zusammengeschaltet sind.

Virtualisierung beflügelt x86-Serversysteme

Zu den wichtigsten Treibern des x86-Marktes gehört der Trend zur Virtualisierung, darin sind sich Experten einig. Bemerkenswert erscheint diese Entwicklung vor allem deshalb, weil die x86-Architektur im Gegensatz zu den mächtigen Konkurrenten aus dem RISC/Unix-Lager zunächst gar nicht für virtualisierte Umgebungen ausgelegt war. Das aber ändert sich derzeit. Die Prozessorhersteller Intel und AMD arbeiten mit Hochdruck an einer verbesserten Unterstützung von Virtualisierungstechniken. Moderne Chipsets und CPUs entlasten beispielsweise die ressourcenhungrigen Hypervisor von VMware, Citrix oder Microsoft von Routineaufgaben und sorgen für eine deutlich höhere Verarbeitungsleistung in virtualisierten Server-Umgebungen.

Mit Hilfe von Virtualisierungstechniken können Unternehmen mehrere dezentrale Server jetzt auch auf leistungsstarke x86-Server konsolidieren. Diese Option war lange RISC-Unix- oder Mainframe-Plattformen vorbehalten, die dazu ausgereifte Techniken anboten. Die oberbayerische Alphaform AG beispielsweise, ein Komplettanbieter im Bereich Rapid Prototyping und Kleinserien, konsolidierte 14 dezentrale x86-Server auf vier leistungsstärkere SunFire Server mit jeweils zwei Opteron-CPUs von AMD. Sowohl Server- als auch Speichersysteme arbeiten virtualisiert unter dem ESX-Server der EMC-Tochter VMware. Der Energiebedarf des Rechenzentrums sank nach der Umstellung um 39 Prozent, zugleich benötigt das Unternehmen 60 Prozent weniger Platz für die zentralen Systeme. "Für die x86-Architektur sprach eindeutig der Preis", erläutert IT-Leiter Kai Fahr. Klassische RISC-Unix-Server, wie sie gerade in konsolidierten Umgebungen häufig genutzt werden, kamen für ihn nicht in Frage.

In ganz anderen Dimensionen dachten die IT-Verantwortlichen des Prozesstechnikherstellers Endress+Hauser. Sie ersetzten rund 250 Dell-Server durch sieben Intel-basierende Highend-Server von IBM. Die Rechner laufen unter Microsoft Windows 2003 und nutzen die Virtualisierungssoftware ESX V3 von VMware. Jeder Server ist mit rund 20 logischen Partitionen konfiguriert. Bei einer Nettoinvestition von 1,2 Millionen Euro ergebe sich ein jährliches Sparpotenzial von 1,4 Millionen Euro, berichten die Verantwortlichen. Das eingesetzte Kapital rentiere sich damit bereits nach zehn Monaten.

Blade-System sparen Energie

Am meisten profitiert die x86-Architektur vom Formfaktor der Blade-Systeme, dem derzeit am schnellsten wachsenden Segment im Server-Markt. Gartner berichtet von jährlichen Steigerungsraten von 18 Prozent bezüglich der verkauften Systeme und 16 Prozent gemessen am Umsatz. Unternehmen sähen in den flachen Servern eine Ergänzung zu den bereits vorhandenen Systemen, erklären die Marktforscher das Phänomen. Sie wollten damit insbesondere Platz und Energie sparen. Immer mehr IT-Manager nutzten x86-basierende Blades als strategische Plattform im Rechenzentrum.

Dicht gepackt: Mit Blades lassen sich viele Server auf engstem Raum unterbringen. Die Blade-Systeme bieten dabei eine hohe Rechenleistung bei geringem Platz- und Energiebedarf. (Quelle: FTS)

Dazu beigetragen hat auch die stetig zunehmende Leistung der Prozessoren mit mehreren Rechenkernen (Multicore). Intels kürzlich vorgestellte neue Xeon-Architektur "Nehalem" etwa bringt den Rechnern einen weiteren Schub. "Heute erhältliche x86-Server wären im Jahr 2000 noch als Highend-Systeme für den SAP-Betrieb klassifiziert worden", vergleicht IBM-Manager Wittmann. Dementsprechend drängen x86-Systeme in Anwendungsbereiche vor, die lange Zeit eine Domäne von RISC-Unix-Plattformen oder Großrechnern waren. Wittmann zählt dazu unter anderem ERP-Systeme, Datenbanken, Business Intelligence und Data Warehousing.

Sieben Aspekte, die für x86-Server sprechen

Zukunftsperspektiven von RISC-Unix-Systemen

An ein baldiges Aussterben der klassischen Rechenboliden glaubt trotzdem kaum ein Experte. "In Sachen Verwaltbarkeit haben die großen Server noch immer die Nase vorn", urteilt Gartner-Mann Butler. Bis die x86-Protagonisten den Vorsprung aufgeholt hätten, werde noch einige Zeit vergehen. Zudem bräuchten klassische RISC/Unix-Nutzer lange, bis sie eine in ihren Augen riskante Migration auf eine andere Plattform wagen. Ganz anders verhielten sich Startup-Unternehmen. Die meisten Cloud-Provider etwa würden x86-Server bevorzugen.

In der Zukunft erwartet Gartner zwei unterschiedliche Typen von Rechenzentren: zum einen "Legacy Data Center", die wegen vorhandener Altsysteme oft gar keine Chance hätten, auf andere Plattformen zu wechseln. Zum anderen so genannte New Generation Data Center, die häufig auf der grünen Wiese entständen und sich nicht um Altanwendungen kümmern müssten. Sie setzten in der Regel strategisch auf x86-Systeme unter Windows oder Linux. Butler: "RISC-Unix wird dort nur noch genutzt, wenn es unbedingt nötig ist.". (hal)

Dieser Artikel basiert auf einem Beitrag unserer Schwesterpublikation Computerwoche.