Leitfaden zur Server-Konsolidierung

17.01.2006 von Roland Klausnitzer
Projektbeispiele zeigen, dass bei konsequenter Standardisierung sowie der Einführung aktueller Software 50 Prozent der Server eines Unternehmens eingespart werden können.

Ein typisches Rechenzentrum betreibt heute eine Vielzahl von Servern für diverse Anwendungen und Dienste. In Bezug auf proaktives Kosten-Management, Maschinenauslastung und System-Monitoring hinken Rechner, die auf Intel-Prozessoren basieren hinter den Mainframe- und Midrange-Systemen her. Dies hat einen einfachen Grund: Die Anschaffungskosten eines Intel-Servers sind im Vergleich zu anderen Rechnerklassen gering. In der Konsequenz machen Intel-basierende Computer im Rechenzentrum bis zu 70 Prozent des Maschinenparks aus. Bei dezentral betriebenen Systemen liegt ihr Anteil bei nahezu 100 Prozent.

Meist dedizierte Server

Aus Gründen der Stabilität wird ein Intel-Server meist dediziert betrieben und stellt nur eine Anwendung beziehungsweise einen Dienst bereit. Doch dies ist nicht wirtschaftlich: Zum einen führt es zu einer geringen Auslastung von weniger als 15 Prozent. Zum anderen verursacht eine hohe Anzahl an Servern hohe Betreuungs- und Lizenzkosten. Diese Kosten lassen sich verringern.

Ein erster Schritt dahin ist die Standardisierung von Server-Hardware und Systemsoftware. Damit nimmt der Betreuungsaufwand pro Server ab. Per se reduziert Standardisierung nicht die Server-Anzahl. Sie ist aber eine wichtige Vorbedingung für die physikalische Konsolidierung. Damit ist die Zusammenführung von bisher dezentral betriebenen Rechnern an einem Standort beziehungsweise an wenigen Standorten gemeint.

50 Prozent Einsparung

Projektbeispiele zeigen, dass bei konsequenter Standardisierung sowie der Einführung aktueller Software 30 bis 50 Prozent der Rechner eingespart werden können. Der Grund: Die Rechner können mehr Nutzer bedienen. Dabei bleibt es jedoch bei der dedizierten Zuordnung von Computern, Anwendungen und Diensten. Die Auslastung der meisten Systeme ändert sich allerdings kaum. Hier setzt die Server-Virtualisierung an.

Bei der Server-Virtualisierung wird zunächst ein Rechner inklusive der Hardware, des Betriebssystems sowie der Applikationen und Dienste als eine logische Einheit aufgefasst.

Mittels geeigneter Software wird ein virtueller Server auf einem realen, physischen Server abgebildet. Dabei ist die Virtualisierungssoftware in der Lage, eine Vielzahl virtueller Systeme gleichzeitig und vollständig unabhängig voneinander auf einem physischen Server auszuführen und zu administrieren. Das erreichbare Verhältnis tatsächlicher zu virtuellen Servern liegt - je nach Anwendungsgebiet - zwischen eins zu fünf bis eins zu 20. Zwar sind auch virtuelle Server immer noch dediziert. Da aber mehrere virtuelle auf einem physischen System betrieben werden, steigt die Auslastung des physischen Rechners erheblich. Die Leerkapazitäten reduzieren sich dementsprechend deutlich.

Weitere positive Nebeneffekte einer Server-Virtualisierung sind:

Breiter Einsatz in Aussicht

Zu den Anbietern von Server-Virtualisierung zählen VMware ("ESX Server"), Microsoft ("Virtual Server") und SWsoft ("Virtuozzo"). Noch ist die Verbreitung dieser Systeme nicht besonders groß, oft wird nur experimentell damit gearbeitet. Weitere Leistungssteigerungen in der Virtualisierungssoftware und Server-Hardware - unter anderem Blade-Techniken - werden aber dazu führen, dass Server-Virtualisierung in absehbarer Zeit flächendeckend Anwendung findet. Ein Verhältnis von eins zu zehn bis eins zu 30 zwischen physischen und virtuellen Servern erscheint möglich.

Wie nun lässt sich die Server-Konsolidierung beziehungsweise Virtualisierung realisieren? Alles beginnt mit der sorgfältigen Erfassung und Klassifizierung bestehender Server. Für jeden Rechner sind Kennzahlen zu erheben. Dazu zählen:

Für ein Rechenzentrum ist dies ein vergleichsweise einfaches Unterfangen. Ein weltweit agierendes Unternehmen mit Tausenden dezentralen Servern an vielen Standorten tut sich da schon schwerer. Selten gibt es ein zentrales Inventarverzeichnis, und die Daten werden nicht einheitlich gepflegt. Gleichwohl bildet eine solide Faktenbasis das Fundament, um die Einsparungspotenziale zu heben.

Einfache Klassifizierung

Liegen die Daten vor, kann folgende, vereinfachte Einteilung für Intel-Server getroffen werden:

Fazit

Die skizzierten Kategorien sind idealtypisch. Zudem ist ein Mischbetrieb eines physischen und eines virtuellen Servers für eine Anwendung durchaus möglich. Ferner besteht die Option, ressourcenverschlingende Softwarekomponenten eines Systems auf einem dedizierten physischen Server zu betreiben, weniger fordernde Bestandteile aber zu virtualisieren.

Nach einer Kategorisierung der Server-Infrastruktur lässt sich das Sparpotenzial ermitteln. Es liegt nicht selten bei 25 bis 60 Prozent. Es stellt sich nicht mehr die Frage, ob, sondern nur noch wann Unternehmen ihre Server konsolidieren und welche Rechner davon betroffen sind.

Insbesondere externe IT-Dienstleister und Outsourcing-Anbieter werden die Vorteile zu nutzen wissen und die IT-Abteilungen der Firmen durch aggressive Preise unter Druck setzen. (ala)