IT-Virtualisierung und Cloud Computing

Server - Neue Technologien und Trends 2012

24.01.2012 von Bernhard Haluschak
Was erwartet die Administratoren in den IT-Abteilungen im Jahr 2012? Antworten geben Serverexperten von Acer, Dell, Fujitsu, HP, IBM und Oracle. Kernthemen bleiben Cloud Computing und die übergreifende Virtualisierung von Server-, Netzwerk-, Storage- und Client-Systemen.

Den Analysten von IDC zufolge soll 2012 für die Hersteller von x86-Servern ein gutes Jahr werden. So prognostizieren die Experten ein Wachstum von bis zu 15 Prozent. Zurückzuführen sind diese Erwartungen auf das Erstarken von Technologien wie Cloud und Virtualisierung sowie VDI in den Unternehmen.

Der steigende Kostendruck in den IT-Abteilungen zwingt die IT-Verantwortlichen zur Konsolidierung ihrer Serverinfrastruktur. Gleichzeitig müssen die IT-Verantwortlichen die Technologien Cloud-Services und Virtualisierung in ihrem Konzept berücksichtigen. So lautet das Ziel, alte Server durch aktuelle Systeme zu ersetzen, die mit hoher Performance sowie energieeffizienter Technologie arbeiten und leicht zu verwalten sind. Darüber hinaus müssen diese Server flexibel einsetzbar und hochskalierbar sein.

Der Wandel im Bereich Serverhardware wird hauptsächlich durch den Einsatz von Virtualisierungs- und Cloud-Technologien begünstigt. Dieser Trend bedingt aber, dass die Anforderungen an die Ausfallsicherheit und das Management der Systeme entsprechend ausgelegt sind - das müssen die IT-Verantwortlichen bei ihrer Planung berücksichtigen.

Bildergalerie: Experten Server Trends 2012
Acer: Dirk Weltermann
Dell: Peter Duemig
Fujitsu: Sascha Denz
HP: Markus Herber
IBM: Joerg Dehnen
Oracle: Rolf Kersten

Wie sich der Serverbereich im Jahr 2012 unter anderem in Bezug auf diese Themen entwickelt, erläutern folgende Experten:

Detaillierte Performance-Daten und technische Informationen zu aktuellen Intel-Server-Systemen bietet der Artikel Die schnellsten Prozessoren im Benchmark-Vergleich. Wichtige Tipps, worauf Sie beim Kauf eines Servers achten müssen, erhalten Sie in unseren Beiträgen Kaufberatung: der richtige Blade-Server, Kaufberatung: der richtige Rack-Server und Kaufberatung: der richtige Tower-Server.

Serverlandschaft im Umbruch?

Laut den Marktforschern von IDC wird der Markt für x86-Server 2012 weiter wachsen. Auch das Segment der Blade-Systeme soll sich gut entwickeln. Wir haben die Serverexperten gefragt, wie sie die langfristige Entwicklung und Veränderung des Serverbereichs in Bezug auf Tower-, Rack- und Blade-Server sehen.

Dirk Weltermann, Acer: "Generell geht der Trend zu kompakteren und energieeffizienteren Rack-, Blade- und Multi-Node-Servern, die dann Services aus dedizierten Rechenzentren anbieten."

Peter Dümig, Dell: "Nach meiner Einschätzung wird es hier keine dramatischen Veränderungen geben. Der Trend hin zu Rack- und Blade-Servern beziehungsweise Cloud-optimierten Servern (in der IDC-Nomenklatur "Hyperscale") wird weitergehen, wobei wir auch eine leichte Verschiebung von Zwei-Sockel hin zu Ein-Sockel-Systemen sehen. Durch die kontinuierlichen Leistungssteigerungen sind Ein-Sockel-Server für viele Einsatzbereiche ausreichend, und sie verfügen auch über die allgemein geforderten Funktionalitäten wie Management-Tools oder Redundanzen.

Cloud Computing gewinnt 2012 an Bedeutung, da es Kostensenkung, Effizienzsteigerung und Erhöhung der Flexibilität verspricht. Das gilt sowohl für kleine Firmen, die die Kostenvorteile einer On-Demand-Nutzung von IT-Infrastruktur und/oder Applikationen nutzen möchten, als auch für große Unternehmen, die mit einer Kombination aus eigenen Rechenzentren und Dienstleistern ihre eigene Cloud gestalten möchten."

Peter Dümig, Dell: " Cloud Computing gewinnt 2012 an Bedeutung, da es Kostensenkung, Effizienzsteigerung und Erhöhung der Flexibilität verspricht."
Foto: Dell

Sascha Denz, Fujitsu: "Aus Sicht von Fujitsu setzen Anwender künftig verstärkt auf Blade-Server und Rack-Mount-Systeme. Der Anteil der Tower-Server-Systeme nimmt dagegen ab. Ein Grund dafür ist, dass Unternehmen ihre Rechenzentren konsolidieren wollen. Blade-Server bieten eine höhere Leistungsdichte als Tower-Systeme. Zudem setzen Anwender verstärkt auf Server der gehobenen Leistungsklassen. Sie erlauben es, mehr und größere Virtual Machines auf einem System zu betreiben.

Speziell kleine und mittelständische Unternehmen werden zudem verstärkt Rechenleistung aus der Cloud beziehen, Stichwort Infrastructure.as.a.Service (IaaS). Das hat den Vorteil, dass die hauseigene IT-Abteilung keine zusätzlichen Server anschaffen und unterhalten muss. Angebote wie die IaaS-Dienste von Fujitsu erlauben es dem Anwender, in hochsicheren Rechenzentren virtuelle Rechenzentrumsumgebungen einzurichten, die er nach Bedarf konfigurieren, nutzen und skalieren kann."

Markus Herber, HP: "2011 haben sich Rack-, Tower- und Blade-Server recht konstant entwickelt. Dabei haben wir einen leichten Trend in Richtung Blade-Server gesehen. Diese Entwicklung wird sich auch 2012 fortsetzen. Das liegt unter anderem daran, dass Unternehmen ihre IT-Infrastruktur konsolidieren und zentralisieren wollen. Genau dafür eignen sich Blade-Server dank ihrer Modularität und der einfachen Verwaltung. Am stärksten hat sich jedoch der Formfaktor Hyperscale entwickelt. Hier erwarten wir für die nächsten Jahre eine weiter positive Entwicklung, gestützt auch durch die von uns vorangetriebenen Entwicklungen beispielsweise durch das Project Moonshot. Dabei nutzen wir Niedrigenergie-Prozessoren wie sie heute in Handys und Smartphones eingesetzt werden. Solche Server brauchen fast 90 Prozent weniger Energie als heutige Server und nur ein Zehntel des Platzes. Im Hinblick auf Cloud-Betriebsmodelle wird die Konvergenz der Server-, Speicher- und Netzwerksysteme, der Managementsoftware und der Applikationen eine immer größere Rolle spielen. Denn nur mit solchen konvergenten Infrastrukturen lassen sich die Nutzenversprechen des Cloud Computings wie Schnelligkeit und Flexibilität einlösen. Dabei werden zunehmend auch externe Cloud-Quellen über sogenannte Bursting-Mechanismen mit der hauseigenen Infrastruktur verknüpft, um Lastspitzen abzufedern."

Jörg Dehnen, IBM: "Cloud-Angebote sind zurzeit das beherrschende Thema im Servermarkt. Die Wolke basiert auf Blade-Center-, Highend- und High-Volume-Rack-Servern und nimmt daher auf das alles Einfluss. Auch der x86er-Markt ist davon betroffen, hier sind laut Gartner die weltweiten Einnahmen im dritten Quartal 2011 auf 9,3 Prozent gestiegen. Private Clouds werden für Unternehmen in Deutschland ebenfalls zunehmend interessant. Die dafür notwendige Infrastruktur wird vor allem mit Blade- und Rack-optimierten Systemen oder voll integrierten Lösungen (Appliances) abgebildet, daher ist hier ein Wachstum zu erwarten.

Einen Rückgang der Marktanteile werden wir hingegen künftig bei Tower-Systemen beobachten können."

Rolf Kersten, Oracle: "Der Trend geht zu Konsolidierung, Virtualisierung und Cloud Computing. Aus diesem Grund erwarten wir auch weiterhin die Migration weg von dezentralen Tower-Servern hin zu zentral verwalteten Grids von Rack- und Blade Servern."

An Cloud Computing führt kein Weg vorbei

Cloud Computing war im vergangenen Jahr 2011 das beherrschende Thema im Serverbereich. Dabei werden IT-Dienste in eine Cloud verlagert, sodass eigene IT-Infrastruktur im Unternehmen überflüssig ist. In diesem Zusammenhang wollten wir von den Experten wissen, welche nachhaltigen Einflüsse beziehungsweise Auswirkungen Cloud Computing auf die aktuelle Serverlandschaft 2012 haben wird.

Dirk Weltermann, Acer: "Zunächst ein Wort zur Cloud: In welchem Umfang sie sich durchsetzt, hängt auch davon ab, ob die bislang ungeklärten Fragen zu Ausfallsicherheit, Datensicherheit und Compliance überzeugend geklärt werden. Dennoch rechnen wir mit der Cloud: Sie wird mit den zugrunde liegenden Virtualisierungstechnologien den Trend zu kompakten Formfaktoren - auch im Hinblick auf Konsolidierung und Effizienzsteigerung - verstärken.

Die großen Public-Cloud-Anbieter wie Amazon, Google oder Facebook, die ihre Services aus eigenen großen Rechenzentren anbieten, setzen zunehmend auf individuelle Serverentwicklungen, da die im Markt verfügbaren Allzweckserver ihre Anforderungen nach Raumeinsparung und spezieller Energieeffizienz nicht ohne Weiteres erfüllen. Für Markenhersteller bedeutet das einerseits eine Herausforderung. Sie können mit flexibel konfigurierbaren Lösungen punkten, die viel Spielraum für Customizing lassen. Wer erfolgreich Server anbieten möchte, muss Projektkompetenz beweisen und über ausgereifte Produkte hinaus abgestimmte Lösungen anbieten.

Andererseits bedeutet Cloud-Computing auch, dass die Server-Goliaths gegenüber kompakten und standardisierten Massenprodukten zunehmend das Nachsehen haben. Hoch skalierbare Architekturen mit smarten und kostengünstigen Systemen sorgen für eine dynamische Leistungsanpassung an sich verändernde Mengengerüste und erlauben bedarfsgerechte Investitionen in Hardwarebeschaffung und -unterhaltung. Im Hinblick darauf haben wir das Acer-ProCore-Programm aufgelegt mit Servern, die sich für vielfältige Nutzungsszenarien (etwa Groupware-Applikationen, Virtualisierung oder Datenbanken) eignen und mit den Anforderungen in Einsatzgebieten wie Entry, Midrange oder NAS skalieren."

Sascha Denz, Fujitsu: "Im Bereich Private-Cloud-Umgebungen erwartet Fujitsu eine Verschiebung von ,klein' nach ,groß'. Das heißt, Unternehmen, die erste Gehversuche mit kleineren Private Clouds gemacht haben, bauen diese sukzessive aus. Ein Faktor, der diese Entwicklung maßgeblich mitbestimmt, ist die zunehmende Virtualisierung von Anwendungen und IT-Ressourcen."
Foto: Fujitsu

Peter Dümig, Dell: "Das Angebot an Cloud-Services wächst kontinuierlich. Allerdings geht die Adaption, bedingt durch deutsche Besonderheiten wie strengeren Datenschutz, gesetzliche Regulierungen und offene juristische beziehungsweise vertragliche Fragen, ein wenig langsamer voran als etwa in den USA. Das Interesse vieler Kunden an privaten oder öffentlichen Cloud-Lösungen ist aber deutlich spürbar, und mittelfristig gehe ich davon aus, dass viele KMUs sich in Richtung Cloud bewegen werden und damit dann auch der Anteil der Tower-Server weiter schrumpfen wird, denn Cloud-Anbieter setzen auf optimierte Rack-Server."

Sascha Denz, Fujitsu: "Für den Bereich Private-Cloud-Umgebungen erwartet Fujitsu eine Verschiebung von ,klein' nach ,groß'. Das heißt, Unternehmen, die erste Gehversuche mit kleineren Private Clouds gemacht haben, bauen diese sukzessive aus. Ein Faktor, der diese Entwicklung maßgeblich mitbestimmt, ist die zunehmende Virtualisierung von Anwendungen und IT-Ressourcen. Nach Schätzungen der Marktforschungsgesellschaft Gartner waren Mitte 2011 an die 40 Prozent der Workloads auf x86-Servern virtualisiert. Bis 2015 soll dieser Anteil auf 75 Prozent steigen.

Dagegen sind durch Public-Cloud-Services kaum Auswirkungen auf den Servermarkt zu erwarten. Fujitsu sieht in diesem Bereich zwei Anwendungsszenarien für die Cloud: Im ersten Szenario beziehen Anwender einzelne Anwendungen aus der Cloud. In diesem Fall hält der Kunde einen Großteil der IT-Infrastruktur im eigenen Haus vor, nur die Anwendung wird von Eigenbetrieb auf Cloud umgestellt.

Im zweiten Szenario nutzt ein Anwender Cloud Computing, um die Ausfallsicherheit seiner IT-Infrastruktur zu erhöhen. Das heißt, er hält eine Kopie der eigenen virtualisierten IT-Umgebung im Rechenzentrum eines Cloud-Service-Providers vor. Fujitsu bietet solche Dienstleistungen im Rahmen seines Trusted-Cloud-Konzepts an. Auch in diesem Fall bleibt die Serverumgebung im Rechenzentrum unberührt."

Markus Herber, HP: "Viele Unternehmen haben im vergangenen Jahr Chancen und Risiken der Cloud evaluiert, 2012 werden sie ihre Kaufentscheidungen treffen. Großes Interesse herrscht dabei insbesondere an hybriden Modellen, also dem Mix von traditionellen Serverinfrastrukturen und Cloud-Lösungen. Hier wird es entscheidend sein, diese beiden Welten gemeinsam und einheitlich zu verwalten.

Langfristig geht es für Unternehmen nicht mehr darum, lediglich Server oder Rechenleistung einzukaufen sondern darum, Serviceanforderungen abzudecken - ganz egal, ob mit eigener Infrastruktur oder aus der Cloud. Dafür ist jedoch ein grundsätzliches Umdenken notwendig, da sich die Auswahl von Diensten aus der Cloud von der reinen Serverbeschaffung grundlegend unterscheidet."

Jörg Dehnen, IBM: "Cloud Computing ist eine Evolution sowohl in der Infrastruktur als auch in den Services. Kunden, die auf dem Weg zu einer IT-"Cloud Ready"-Organisation sind, werden die technischen Vorteile der Systeme noch stärker nutzen. Ziel ist, den durch Konsolidierung und Virtualisierung entstehenden Nutzen auf die höheren Ebenen der Cloud zu bringen, wo Automatisierung und Self Service eine Rolle spielen.

Zugleich bewirkt der Trend zu Cloud-Lösungen, dass Serverhersteller noch stärker als bisher darauf zu achten haben, ob ihre Lösungen für Anwender einfach zu bedienen und zudem hocheffizient gestaltet sind. Eine höhere Integration von Hardware, Software und Systemmanagement ist die Folge."

Rolf Kersten, Oracle: "Die Vorteile des Cloud Computings wie Selbstbedienung, Ressourcenbereitstellung nach Bedarf und Ressourcenabrechnung nach Nutzung sind nur durch zentral bereitgestellte und verwaltete Server-Cluster zu erreichen. Dabei hängt es von den Applikationsanforderungen ab, ob diese Server-Cluster aus einer Vielzahl kleiner Serversysteme, wenigen großen oder einer Mischung aus beiden aufgebaut sind. Hauptsache, alle Systeme lassen sich einheitlich betreiben und verwalten. Oracle beispielsweise bietet für seine für Datenbanken und Middleware optimierten Maschinen verschiedene Versionen und unterschiedliche Größen an."

Servervirtualisierung im Jahr 2012

Die Servervirtualisierung hat sich in den IT-Abteilungen etabliert, dennoch sind weitere technologische Entwicklungen in Planung. Wir wollen wissen, wie die Virtualisierungstechnologie den "Server" im Jahr 2012 verändert wird.

Dirk Weltermann, Acer: "Zwei bereits aus 2011 bekannte Technologien haben das Potenzial, den Servermarkt im Jahr 2012 zu verändern:

VDI - Virtual Desktop Infrastructure: Die Datenverarbeitung ist nicht mehr auf Rechnern direkt am Arbeitsplatz angesiedelt, sondern auf Servern im Rechenzentrum. Auf dem Schreibtisch steht nur noch ein smarter und preisgünstiger Terminal-PC wie der energiesparende Acer N260G Thin Client, der für Ein- und Ausgaben sowie die Wiedergabe anspruchsvoller Multimedia-Anwendungen zuständig ist. Technische Fortschritte in der Grafikleistung werden die Thin-Client-Konzepte zunehmend für ambitionierte Applikationen wie Videobearbeitung und CAD interessant machen. Hierfür sind serverseitig Veränderungen bei der Verbaubarkeit mehrerer Grafikkarten zu erwarten, wofür die meisten Server bislang nicht ausgelegt sind.

Variable CPU-/Kernzuweisung - Aktuelle Virtualisierungssoftware unterstützt eine variable Zuweisung von virtuellen CPUs und Kernen, sodass der Anwender zum Beispiel zwischen vier CPUs mit jeweils einem Kern oder einer CPU mit vier Kernen wählen kann. Das hat potenziell Auswirkungen auf Softwarehersteller und ihre Lizenzmodelle, die sich noch an CPUs, Kernen oder beidem orientieren. CPU- und Kern-Zuweisung könnten die Entwicklung zu alternativen, transaktionsbasierten Lizensierungsmodellen verstärken."

Peter Dümig, Dell: "Die allgemein steigende Leistungsfähigkeit, die zunehmende Bandbreite und das Angebot an rasch einsatzfähigen Komplettpaketen wie Dells vStart unterstützen den Trend der Virtualisierung und werden für einen weiteren Ausbau sorgen. Die IT-Verantwortlichen wollen neue Server und Applikationen schnell und unkompliziert in eine vorhandene Infrastruktur einbinden. Systeme, die optimal für Virtualisierung designt wurden, bilden damit einen gewichtigen Schwerpunkt im Markt. Weiterhin dürfte durch das wieder gestiegene Interesse an Client-Virtualisierung auch eine Verschiebung von Rechenleistung und Plattenkapazitäten vom lokalen PC hin in das Rechenzentrum stattfinden."

Dirk Weltermann, Acer: "Mit VDI und variabler CPU-7-Kernzuweisung haben zwei bereits aus 2011 bekannte Technologien das Potenzial, den Servermarkt im Jahr 2012 zu verändern."
Foto: Acer

Sascha Denz, Fujitsu: "Jahrelang war speziell im Bereich Desktop-Virtualisierung kaum Bewegung zu erkennen, und dies, obwohl eine Virtual Desktop Infrastructure eine ganze Reihe von Vorteilen bietet: ein höheres Sicherheitsniveau, weil die Desktop-Umgebungen zentral über ein Data Center bereitgestellt werden, ein einfacheres Systemmanagement und nicht zuletzt ein höheres Maß an Flexibilität. Denn Anwender können beispielsweise von unterschiedlichen Systemen aus auf "ihren Desktop" zugreifen, etwa von einem klassischen Desktop-Rechner aus, aber auch über Notebooks, Tablet-Rechner oder Smartphones.

Auftrieb wird der Bereich Desktop-Virtualisierung durch zwei Entwicklungen erhalten: die verstärkte Nutzung von Multi-Node-Servern und von General Purpose Computation on Graphics Processing Units (GPCGPUs).

Multi-Node-Server, wie etwa der Primergy CX1000 von Fujitsu, erlauben es Unternehmen, bei Bedarf Hunderte oder gar Tausende separater Serverknoten in ein einzelnes Rack zu packen. Das spart bis zu 40 Prozent Platz, vereinfacht die Systemverwaltung und erlaubt es, zentral leistungshungrige Anwendungen wie virtualisierte Desktops vorzuhalten.

GPCGPU-Karten wiederum entlasten Server, indem sie einen Teil der Rechenleistung von Grafikprozessoren anderen Applikationen zur Verfügung stellen. Auch dies macht die Einführung von VDI-Umgebungen unter wirtschaftlichen und technischen Gesichtspunkten interessant."

Markus Herber, HP: "Kunden werden in Zukunft unterschiedliche Virtualisierungstechnologien parallel einsetzen wollen, vielfach getrieben durch Kostenbetrachtungen. Wichtig dafür ist eine einheitliche Managementinstanz für die unterschiedlichen Virtualisierungstechnologien."

Jörg Dehnen, IBM: "Das Portfolio von Virtualisierungstechnologien wird sich abermals ausweiten. Es werden sich 2012 und in den darauf folgenden Jahren immer mehr Anbieter am Markt etablieren. Die Hersteller von Virtualisierungstechnologien im x86er-Markt werden ebenfalls verstärkt Cloud-Produkte und -Services positionieren, um ihren Marktanteil zu sichern. Wichtige Treiber sind hier Automatisierung, Integration in Technologie und Self-Service-Portale für Cloud."

Rolf Kersten, Oracle: "Wie angedeutet, geht der Trend hin zu Clustern aus Systemen mit je nach Applikation unterschiedlich ausgestatteten Serverknoten (Anzahl CPUs, Hauptspeicher). Wichtig sind eine schnelle Verbindung der Server untereinander (zum Beispiel InfiniBand, sowie ein schneller Zugang zum Speicher trotz einer Vielzahl paralleler Zugriffe der virtualisierten Systeme. Hier verkürzt der intelligente Einsatz von Flash-Speicher die Wartezeit auf Transaktionen. Technologien wie InfiniBand sorgen für mehr Datendurchsatz."

Wichtige Kriterien beim Serverkauf

Beim Serverkauf müssen IT-Verantwortliche einige wichtige Aspekte beachten. Denn neben den CPUs spielen auch Kriterien wie Hauptspeicherkapazität, Management und RAS-Features eine wichtige Rolle. Von unseren Experten wollten wir wissen, worauf die Kunden 2012 beim Kauf eines Servers achten müssen.

Dirk Weltermann, Acer: "Angesichts steigender Preise ist die Stromversorgung ein erheblicher Kostenfaktor. Energieeffiziente Komponenten werden daher immer wichtiger: Sie sind aber nutzlos, wenn ein ineffizientes Netzteil wieder ,alles auffrisst'. Aus diesem Grund sind alle unsere Servernetzteile 80-PLUS-zertifiziert (mindestens Bronze, teilweise Platinum) und erreichen einen Wirkungsgrad von bis zu 95 Prozent. Darüber hinaus sind für virtualisierte Server zwei Leistungsmerkmale von zentraler Bedeutung:

Redundanz: Wenn ein einzelner Server mehrere virtuelle Server mit einer entsprechend hohen Nutzeranzahl beheimatet, ist ein Ausfall umso gravierender. Redundante Komponenten und Technologien sind daher unverzichtbar, zum Beispiel im Festplattenmanagement (RAID) und bei der Stromversorgung (Netzteil, USV-Absicherung).

Management: Aus dem gleichen Grund wird Ferndiagnostik immer wichtiger für ein professionelles Präventions- und reaktionsschnelles Notfallmanagement. Wir tragen dem Rechnung mit dezentralen Verwaltungs- und Monitoring-Lösungen wie Acer Smart Server Console und Acer Smart Server Manager sowie die Integration in das MS Systemcenter."

Peter Dümig, Dell: " Unternehmen achten beim Kauf neuer Server heute vornehmlich auf die Kriterien Formfaktor, Leistung und ein möglichst komfortables Handling. Beim Formfaktor geht der Trend hin zu Rack-Servern, die platzsparend und kompakt sind und sich oft auch einfacher administrieren lassen. Auch der Leistung kommt im Umfeld von Virtualisierung und von Applikationen, die sehr viel Performance benötigen, eine immer größere Bedeutung zu. Im Hinblick auf das Handling sind Systemmanagement-Tools für eine gemeinsame, zentrale Verwaltung von Servern, Netzwerk- und Speicherkomponenten gefragt. Die Hardware wird weiter zur Commodity, sodass die Dinge um die Produkte herum wie Beratung, Managed Services oder vorkonfigurierte Komplettangebote eine zunehmend wichtige Rolle spielen werden."

Jörg Dehnen, IBM: "Beim Kauf eines Servers muss der Kunde Kosten, Leistung, Energieeffizienz, Konfigurationsflexibilität, Bedienbarkeit, Zukunftssicherheit, Total Cost of Ownership oder Return on Investment beachten."
Foto: IBM

Sascha Denz, Fujitsu: " Wichtig ist, dass sich das System möglichst einfach an künftige Anforderungen anpassen lässt. Das heißt, ein Server muss sich erweitern lassen, etwa durch Integration mehrerer CPUs, Netzwerkkarten oder Massenspeicher. Zudem sollte der Anwender prüfen, mit wie viel Arbeitsspeicher sich ein System maximal bestücken lässt. Das ist wichtig, um auf einem System möglichst viele Virtual Machines betreiben zu können und somit die Konsolidierung der Serverumgebung voranzutreiben.

Außerdem sollte ein Server Netzwerktechniken wie 10-Gigabit-Ethernet, Fibre Channel over Ethernet (FCoE) und Infiniband HDR (High Data Rate) unterstützen. Die HDR-Spezifikation wird voraussichtlich 2014 fertig sein und Infiniband-Lanes mit bis zu 50 Gbit/s ermöglichen. Diese Technik könnte speziell im Bereich High-Performance-Computing eine wichtige Rolle spielen. Mithilfe von FCoE wiederum können Unternehmen ihre Netzwerkinfrastruktur konsolidieren. Denn damit lässt sich Fibre-Channel-Verkehr, der für Storage-Systeme bestimmt ist, über Ethernet-Verbindungen transportieren.

Serversysteme sollten zudem nicht als Blade-Server, sondern auch als Rack-Server MAC- und WWN-Adressvirtualisierung (World Wide Name) unterstützen. In diesem Fall kann ein Server bei Auftreten eines Fehlers auf eine komplette Dokumentation aller Netzwerkverbindungen zurückgreifen und zudem die Zeit verkürzen, bis die Verbindungen wiederhergestellt sind. Die Grundlage sollte in jedem Fall ein zentrales Storage-System sein."

Rolf Kersten, Oracle: "Oracle erwartet, dass Kunden zunehmend nicht mehr nur Server kaufen, sondern für Anwendungen optimierte Systeme."
Foto: Oracle

Markus Herber, HP: " Grundsätzlich haben sich die Kriterien für 2012 nicht verändert: Neben den reinen Anschaffungskosten sollten die Kunden weiter vor allem auf einen einfachen und kostengünstigen Betrieb der Server achten. Gerade neue Möglichkeiten in Bezug auf selbstständige Diagnose, vereinfachte Provisionierung und Online-Überwachung erleichtern den Betrieb deutlich. Weitere Kriterien sind die Konvergenz der Server mit den Speicher- und Netzwerksystemen sowie ein einheitliches Management für alle Infrastrukturdomänen. Ein solches konvergentes Gesamtsystem vereinfacht nicht nur den Betrieb, sondern kann auch die Grundlage für Cloud-Betriebsmodelle sein."

Jörg Dehnen, IBM: "Es gibt mehrere Kriterien, auf die ein Kunde achten sollte. Dazu gehören Kosten, Leistung, Energieeffizienz, Konfigurationsflexibilität, Bedienbarkeit, Zukunftssicherheit, Total Cost of Ownership oder Return on Investment. Der Kunde muss die für sich relevanten Kriterien vor dem Kauf definieren und wissen, welchen IT-Bedarf er mit welcher Technologie abdecken möchte. Der Servermarkt bietet viele Auswahlmöglichkeiten, und die Hersteller weiten ihr Portfolio stärker aus. Dementsprechend ist es wichtig, dass der Kunde zielgerichtet sucht und einkauft, sich aber auch umfassend beraten lässt. "

Rolf Kersten, Oracle: "Oracle erwartet, dass Kunden zunehmend nicht mehr nur Server kaufen, sondern für Anwendungen optimierte Systeme. Diese Systeme bestehen aus einem Cluster mit Server, Interconnect und Storage, stellen den Applikationen standardmäßig virtualisierte Ablaufumgebungen zur Verfügung und werden zentral sowie einheitlich verwaltet. Nur so lassen sich die drei Hauptanforderungen - Performance, Sicherheit und Flexibilität - erfüllen."

Ausblick auf Servertrends 2012

Auch 2012 wird es im Serverbereich hoch hergehen. Welche allgemeinen Trends im Serverbereich für 2012 zu erwarten sdind, darüber geben unsere Serverexperten Auskunft.

Dirk Weltermann, Acer: "Neben den ,üblichen' Leistungssteigerungen bei Chipsatz und CPU - ,schneller, höher, weiter' - erwarten wir vor allem im Einstiegssegment eine starke Nachfrage nach Micro-Servern wie unserem Acer AC100, der kompakt, leise und stromsparend arbeitet. Im SAN-Bereich wird es vermehrt preisgünstige Optionen auch für kleinere und mittelständische Unternehmen geben. Das gilt sowohl für separate SAN-Storage- als auch für zertifizierte Cluster-Lösungen."

Peter Dümig, Dell: "Als übergreifender Trend in den Rechenzentren zeichnet sich ein Zusammenwachsen von virtualisierten Server- und Storage-Lösungen ab. Dabei sollte berücksichtigt werden, dass nur eine ganzheitliche Virtualisierungslösung den maximalen Nutzen verspricht. Allein ein integrierter Ansatz ermöglicht neben der optimalen Nutzung vorhandener IT-Ressourcen und der Reduzierung der Serverfarm eine einfachere Administration und erhöhte Ausfallsicherheit sowie insgesamt eine nachhaltige Senkung der Betriebskosten. Ferner steigt in den Unternehmen der Bedarf an konvergenten

Netzinfrastrukturen, also an einer Verknüpfung von Speicher- und Datennetzen. Getrennte Fibre-Channel- und Ethernet-Netze - heute noch in etlichen Unternehmen üblich - führen zu redundanten Infrastrukturen und Ressourcen. Hier schafft 10-Gigabit-Ethernet die Basis für eine Eliminierung doppelt vorhandener Architekturen. Unternehmen können dann Fibre Channel over Ethernet (FCoE) einsetzen, um implementierte Fibre-Channel-Infrastrukturen mit 10-Gigabit-Ethernet zu verbinden."

Markus Herber, HP: "Ohne Frage wird der Servermarkt 2012 vom Thema Cloud geprägt sein: Hier wird sich zeigen, inwieweit die Serveranbieter innovative Modelle für die Cloud bieten können."
Foto: HP

Sascha Denz, Fujitsu: "Generell erwartet Fujitsu einen Trend hin zum Einsatz von leistungsfähigeren, höherwertigen Serversystemen und von Blade-Servern, außerdem von GPGPU-Karten in Servern, die im Bereich HPC und Desktop-Virtualisierung eingesetzt werden.

Was die Netzwerkanbindung betrifft, werden sich 10-Gigabit-Ethernet und Fibre Channel over Ethernet nachhaltig etablieren. Abzuwarten bleibt, inwieweit sich 40 GBase-T, also 40-Gigabit-Ethernet über geschirmte Kupferkabel (STP, Shielded Twisted Pair), durchsetzen wird.

Im Bereich Cloud Computing erwartet Fujitsu, dass Anwender Fabric Based Infrastructures (FBIs) in vorkonfigurierten Blöcken beziehen und in ihre Private-Cloud-Umgebungen integrieren. Bei solchen Blöcken, beispielsweise den Dynamic Infrastructure Blocks (DIs) von Fujitsu, handelt es sich um aufeinander abgestimmte Systembausteine wie Server, Storage-Systeme sowie Netzwerke und Virtualisierungskomponenten. Sie lassen sich mithilfe einer integrierten Managementsoftware dynamisch verwalten. Für den Anwender hat das den Vorteil, dass er schnell und ohne hohen Aufwand in seinem Data Center Pools von Infrastrukturkomponenten bilden und darüber IT-Dienste bereitstellen kann. Fujitsu wird die DI Block zusammen mit VMware vCloud Director im Frühsommer 2012 auf den Markt bringen.

Markus Herber, HP: "Ohne Frage wird der Servermarkt 2012 vom Thema Cloud geprägt sein: Hier wird sich zeigen, inwieweit die Serveranbieter innovative Modelle für die Cloud bieten können. Der Trend zu konvergenten Infrastrukturen hat sich bereits im Markt etabliert und wird auch weiterhin Einfluss auf den Serverbereich haben. Hier gilt es, Entwicklungspfade für die Anwender aufzuzeigen, vom einzelnen Server bis hin zu einer applikationsspezifischen Implementierung.

Hierbei zeichnet sich ein Trend zu anwendungsoptimierten Systemen und Appliances ab, die sich durch die optimale Integration von Hard- und Software im Einsatz auszeichnen. HP hat in den vergangenen zwölf Monaten eine Reihe von Appliances für die Virtualisierung, einzelne Anwendungen sowie Cloud Computing entwickelt und wird dies im Jahr 2012 weiter vorantreiben.

Außerdem rechnen wir fest damit, dass sich weitere Hersteller dem Trend extrem energieeffizienter Server anschließen werden. Das wird diesen Sektor im Jahr 2012 weiter beflügeln."

Jörg Dehnen, IBM: "Es ist ein Trend zu SSD in unterschiedlichen Varianten, beispielsweise Solid State Drives, Solid State DIMMs, Solid State Storage Adapters und herstellerindividuellen Solid-State-Storage-Lösungen wie eXFlash erkennbar. Außerdem wird sich die 10-GigE-Technologie weiter ausweiten. Im Bereich der LAN- und SAN-Infrastruktur geht der Trend hin zur Konsolidierung. Im x86er-Segment wird die Leistung weiter steigen: größere RAM-Dichten und ein klarer Trend zu InMemory-Technologien, bedingt durch die Entwicklung von kostengünstigen MLC/SLC-Flash-Storage-Adaptern. Netzwerke werden vermehrt durch converged Network Technology (FCoE) konsolidiert. Generell liegt der Fokus 2012 auf ganzheitlichen Lösungen.

Rolf Kersten, Oracle: "Es werden zunehmend auf Applikationen hin optimierte Systeme nachgefragt werden, die als Basis für Private-Cloud-Betriebsmodelle dienen können." (hal)