Die Zukunft des Rechenzentrums

Software Defined Data Center – Hype oder Realität?

22.05.2013 von Hartmut  Wiehr
Einmal mehr pushen Hersteller und Analysten ein neues IT-Schlagwort: Das Software-Defined Data Center soll das angestaubte RZ-Konzept revolutionieren. Doch was steckt wirklich dahinter?

Unter dem Begriff "Software-Defined" propagieren Hersteller wie EMC und dessen Tochter VMware Produkte und Konzepte, die sich so zusammenfassen lassen: Virtualisierungs-Software soll den vier Säulen eines Rechenzentrums – Server, Speicher, Netzwerk und Security – neue Intelligenz einflössen. Im Prinzip möchte man den Erfolg von Server-Virtualisierung auf die anderen Bestandteile eines Rechenzentrums ausdehnen. Server-Virtualisierung mit virtuellen Maschinen (VMs) könnte man insofern genauso als "Software-Defined Server" bezeichnen. Die einzelnen VMs sind ein Stück Software, das dem Server-Betriebssystem einen unabhängigen Server vorgaukelt.

Der Vorteil einer in dieser Form durchgeführten Konsolidierung: mehr (virtuelle) Server auf einer einzigen (physikalischen) Maschine, weniger physikalische Server, weniger Platz im Rechenzentrum, eventuell weniger Energieverbrauch. Ob eine wirkliche Kosteneinsparung erzielt werden kann, bedarf einer genauen Kalkulation im Einzelfall: VMware verlangt üppige Software-Lizenzen (Hyper-V von Microsoft gibt es dagegen mit dem Windows-Betriebssystem zusammen umsonst), und für virtuelle Umgebungen, die nebeneinander die CPU beanspruchen, bedarf es leistungsfähiger neuer Server mit mehreren Cores oder CPUs.

Prognose 1
Konsolidierungsvorteile reichen nicht, um noch mehr Virtualisierung zu rechtfertigen. IT-Manager müssen erklären, wie Virtualisierung Anwendungen flexibler und sicherer mache.
Prognose 2
Ihre Virtualisierungsumgebung muss dynamisch sein, sonst verschwenden Sie Geld. Unternehmen sollten die zahlreichen Features nutzen, die das Hypervisor Resource Management inzwischen biete, rät Forrester.
Prognose 3
Disaster Recovery und Ausfallsicherheit treiben die meisten neuen Virtualisierungsprojekte. Das hat eine Forrester-Umfrage ergeben. Der Return on Investment (RoI) für Virtualisierungsvorhaben werde zunehmend durch eine verbesserte Ausfallsicherheit der IT-Infrastruktur bestimmt.
Prognose 4
Analytics-Funktionen machen konsolidierte Management-Tools für die Virtualisierung noch smarter. Das betrifft vor allem die Branchenschwergewichte VMware und Microsoft, die ihre umfangreichen Suiten vereinfacht haben. Unternehmen können Analytics-Features nutzen, um mehr aus ihren virtualisierten Umgebungen herauszuholen.
Prognose 4
Analytics-Funktionen machen konsolidierte Management-Tools für die Virtualisierung noch smarter. Das betrifft vor allem die Branchenschwergewichte VMware und Microsoft, die ihre umfangreichen Suiten vereinfacht haben. Unternehmen können Analytics-Features nutzen, um mehr aus ihren virtualisierten Umgebungen herauszuholen.
Prognose 5
Die Anwendung sollte die beste Virtualisierungsplattform diktieren, nicht umgekehrt, empfiehlt Forrester. Hinsichtlich der reinen Hypervisor-Technik könnten Unternehmen heute frei wählen und auch Open-Source-Alternativen ins Auge fassen. Entscheidend sollte aber nicht die Hypervisor-Technik sein, sondern die Betriebssysteme und Anwendungen, die in der virtualisierten Umgebung laufen.
Prognose 5
Die Anwendung sollte die beste Virtualisierungsplattform diktieren, nicht umgekehrt, empfiehlt Forrester. Hinsichtlich der reinen Hypervisor-Technik könnten Unternehmen heute frei wählen und auch Open-Source-Alternativen ins Auge fassen. Entscheidend sollte aber nicht die Hypervisor-Technik sein, sondern die Betriebssysteme und Anwendungen, die in der virtualisierten Umgebung laufen.
Prognose 6
Der Hypervisor-Preiskrieg setzt sich fort…. und geht doch an den Kundenbedürfnissen vorbei. Kunden bezahlten in Wirklichkeit nicht für den Hypervisor, sondern für den damit verbunden Management-Stack, konstatieren die Forrester- Experten.
Prognose 7
2013 wird das Jahr 1 des Software-defined Data Center. Das Konzept des Software-defined Data Center ist aus Sicht der Forrester-Experten der nächste logische Schritt hin zu hochautomatisierten und effizienten IT-Operationen.
Prognose 8
Das hybride Data Center wird populärer als reine Private oder Public Clouds. Anwenderunternehmen nutzen künftig eine Mischung aus virtualisierten lokalen Ressourcen (on-premises) und externen Workloads in der Cloud (off-premises).
Prognose 9
Ihr CFO fordert Kostentransparenz für virtuelle Umgebungen. Das obere Management Ihres Unternehmens wird sich 2013 viel stärker für die Kosten der virtualisierten IT interessieren, lautet die letzte Prognose der Forrester-Experten.

VMware-CEO Pat Gelsinger, im September letzten Jahres inthronisiert, um der EMC-Tochter als Fachmann für "Execution" neuen Schwung zu verleihen, begründet die aktuelle Stoßrichtung seines Unternehmens wie folgt: "Was würde passieren, wenn die gleichen Prinzipien, die einen einzelnen Layer des Rechenzentrums transformiert und den Kunden einen bisher nicht dagewesenen Wertzuwachs beschert haben, auf das gesamte Rechenzentrum angewendet werden?"

Software Defined Data Center: Mehr als nur Virtualisierung

Seit Jahren schon soll ein Großteil der an die 4.000 VMware-Entwickler damit beschäftigt sein, diesen Schritt von der Server-Virtualisierung in Richtung komplett virtualisiertes Rechenzentrum in neue Software zu gießen. Das Software-Defined Data Center (SDDC) bedeutet demnach: "Alle Infrastruktur ist virtualisiert und wird als Service geliefert. Die Kontrolle dieses Rechenzentrums geschieht vollständig automatisiert durch Software." Soweit die Theorie.

Die Praxis sieht anders aus: Bisher ist man allerseits kaum über die Ankündigungsphase hinausgekommen. Allenfalls kleine Schritte sind zu vernehmen, etwas mehr Virtualisierung hier, ein paar Ansätze für Cloud-Services dort. Dabei muss eines klar sein: Die Hardware-Basis der Rechenzentren wird auch in zukünftigen SDDCs bestehen bleiben, so wie ja auch virtuelle Maschinen (VMs) immer noch auf einem physikalischen Server aufsetzen. Zwar braucht es etwas weniger "Blech", dafür aber um so mehr an Performance und Verfügbarkeit, um die Ansprüche aller Applikationen und Tools ohne Latenz zu befriedigen.

Virtualisierung aller Säulen eines Rechenzentrums à la EMC = Software-Defined Datacentre.
Foto: EMC

Der Analyst Richard Fichera von Forrester Research geht davon aus, dass sich SDDC gleichzeitig in Richtung einer "Produkt-Kategorie" und eines zunächst unscharfen Trends entwickeln wird. Erste Produkte würden auf bestehenden Angeboten wie "Converged Infrastructure" sowie Cloud-Technologien und -Tools beruhen. Microsoft und VMware würden aber bald mit reinen Software-Lösungen herauskommen. Man dürfe deshalb, so Fichera, getrost davon ausgehen, dass zunächst einige Konfusion über genaue Features, Skalierbarkeit und Schnittstellen im SDDC-Umfeld herrschen werde.

Fichera erwartet ferner eine verstärkte Konkurrenz zwischen den Herstellern, die allesamt den neuen Infrastruktur-Markt beherrschen wollen. So habe Cisco mit seiner Erfahrung in puncto Netzwerk-Virtualisierung ("Software-Defined Network") teilweise die Nase vorn und könnte versucht sein, andere Hersteller auf diesem Gebiet auszugrenzen. Eine ähnliche Haltung könnte man auch vom Gespann EMC-VMware erwarten. VMware hat bereits letztes Jahr den SDN-Spezialisten Nicira übernommen. Damit bescherte VMware dem "Alliance"-Partner Cisco, der gemeinsam mit EMC und VMware das Joint Venture „VCE" gegründet hatte, direkte Konkurrenz. Seitdem wird immer wieder über die Zukunft von VCE und seinen Vblocks gemunkelt. Gemeint sind damit leistungsfähige Racks aus aufeinander abgestimmten Servern (hauptsächlich Cisco), Netzwerkelementen (Cisco), Speicher (EMC) und Virtualisierungslayer (VMware).

SDDC ist für Forrester die angemessene Antwort auf eine kaum noch beherrschbare Komplexität in den Rechenzentren und Generationen von Silo-Implementationen, unvollständigen Virtualisierungsanstrengungen und einem Wirrwarr von Management-Tools. In dem Maße aber, wie verfeinerte Virtualisierungs-Tools, SDNs und Converged-Infrastructure-Stacks Eingang in die Rechenzentren finden, eröffne sich die Chance, die Infrastruktur der Rechenzentren neu zu modellieren. Der Begriff "Software-Defined Data Center" (SDDC) vereint dann laut Forrester nichts weniger als alle Anstrengungen, "gewachsene" Legacy-Strukturen, Cloud Computing und neue I/O-Ansätze in eine gemeinsame Management-Ebene zu überführen.

"Alle Infrastruktur ist virtualisiert und wird als Service geliefert"

Folgt man dieser Forrester-Begriffsbestimmung, dann wird auch klar, dass SDDC keineswegs bedeutet, die alten Rechenzentren wegzuwerfen und durch neue auf Software-Basis zu ersetzen. Stattdessen geht es eher darum, neue Rahmenbedingungen und Tools zu finden, um das klassische Inventar von Rechenzentren auf neue Art zusammenzuhalten. Server bleiben Server, Festplatten bleiben Festplatten, Netzwerke dienen mit ihrer physischen Basis dem Datentransport und so weiter. Gelsinger hat es, wie zitiert, so beschrieben: "Alle Infrastruktur ist virtualisiert und wird als Service geliefert."

Auf der Storage-Ebene soll es zum Beispiel vermehrt darum gehen, Management-Funktionen von der Hardware zu entkoppeln, heterogene Speicherumgebungen in Pools zusammenzufassen und geographisch verteilt skalieren zu können. Im Idealfall hieße das, eigene Schnittstellen für die Arrays der Konkurrenz zu öffnen und den Weg zu Commodity-Produkten zu ebnen. Manche von diesen hehren Zielen schwirren schon seit einiger durch die Storage-Welt, an der Umsetzung hat es aber fast immer gehapert, weil kein Hersteller bereit war und ist, den eigenen proprietären Ansatz aufzugeben. Software-Defined Storage würde in der Konsequenz bedeuten, sich als Hersteller von der eigenen existierenden Storage-Technologie zu befreien – und sogar bereit zu sein, weniger eigene Hardware zu verkaufen.

So sieht das virtualisierte Rechenzentrum in den Augen von Forrester aus: Management und Service dominieren die physikalische Basis.
Foto: Forrester

Ob EMC, HP oder IBM dazu in der Zukunft bereit sein werden, ist durchaus anzuzweifeln. EMC immerhin hat jüngst mit "ViPR" einen neuen Vorstoß in Richtung offene Speicherinfrastruktur vorgenommen. Man entwickelt mit ViPR einen Software-Layer für Storage-Arrays, mit dem alle Speicherprodukte verschiedener Hersteller sowie Commodity-Produkte über offene APIs in eine gemeinsame Infrastruktur überführt werden könnten. Dies soll besonders für Unternehmen und Service Provider interessant sein, die an einer Cloud-Zukunft arbeiten und dabei ihre bestehenden Gerätschaften mitnehmen wollen. Bestehende Ansätze für virtuelle Storage-Pools, die es zum Beispiel von HDS oder IBM gibt, waren immer hersteller-zentriert und nicht generell offen. Lediglich von DataCore gibt es einen Software-Ansatz, mit dem Geräte unterschiedlicher Provenienz virtualisiert werden können.

Forrester-Mann Fichera spricht von einer lang anhaltenden Suche in der Welt der Computertechnologie, die Abstraktion von den tiefer liegenden Ressourcen in den Rechenzentren zu verbessern. Diese Ansätze seien zwar immer sehr mächtig gewesen, aber nie anwenderfreundlich und einfach zu nutzen. Als Beispiele für Abstraktionen nennt er die Entwicklung von rohen Maschinen- zu Assembly-Programmiersprachen oder von Datenverarbeitung vom Batch- zum Time-Sharing-Verfahren. Mit Virtualisierung – bereits üblich ab Ende der 60er bis Anfang der 70er Jahre in Mainframe- oder Unix-Umgebungen – gelang schließlich ein weiterer wichtiger Schritt in der Abstraktion von den physikalischen Ressourcen. Fichera schreibt: "Und ab Mitte der 70er Jahre verwandelten Multi-User-Betriebssysteme, Virtualisierung und erste Software-Defined Netzwerke den Computer in eine Umgebung, in der Programmierer mit durchschnittlichen Fähigkeiten und wenig Verständnis von der darunter liegenden Hardware effektive Anwendungen für Business-Probleme entwickeln konnten."


Moderne Speichersysteme bringen heute eine ganze Reihe von zusätzlichen Features mit, die Unternehmen brauchen.

Die HP EVA war eine der ersten Storage-Plattformen, bei der die interne Virtualisierung zum Lieferumfang gehörte

Ein wichtiges Einsatzfeld für hardwareunabhängige Virtualisierungslösungen sind Migrationen zwischen unterschiedlichen Storage-Systemen.

„Budgets auch für die notwendigen Softwaretools vorhalten“, rät Valdis Filks, Research Director, Information Technology Infrastructures bei Gartner.

„Organisationen mit Siloarchitektur eignen sich schlecht für Speicher-Virtualisierungsprojekte“, warnt Donna Taylor, Research Director European Storage beim Marktforschungsunternehmen IDC.

„Virtualisierungsprojekte werden mit den Endkunden in Workshops erarbeitet.“ Alfred Beblik, bei TIM für die Projektentwicklung zuständig

Eine gegenläufige Entwicklung diagnostiziert Fichera für die nachfolgenden Jahrzehnte. Der Komplexitätsgrad in den Rechenzentren hätte angetrieben durch billige x86-basierte Hardware, Ethernet und Internet und die explosionsartige Vermehrung verteilter Systeme enorm zugenommen und die frühen Produktivitätsverbesserungen durch erste Abstraktions-Layer wieder aufgezehrt. Das Resultat: Die Rechenzentren verharren auf einer Komplexitäts- und Investitionsstufe, die nur gelegentlich aufgebrochen wird.

Converged Infrastructure und neue Konkurrenz im Rechenzentrum

Ab etwa 2001 hat sich – so der Forrester-Analyst – das Blatt wieder gewendet. Es gab erste Ansätze von "Converged Infrastructure", Gesamtlösungen aus virtuellen Servern, virtuellen Netzwerken und virtuellen Pools für Speicherressourcen. HP führte das "Utility Data Center" (UDC) ein, später folgten VMware, Cisco und EMC mit der VCE-Coalition und den Vblocks. IBM (mit PureSystems) und Oracle (mit Exadata und Exalogic) sind inzwischen ebenfalls mit ihren "Converged"-Varianten am Markt vertreten.

Unterschiedliche Herstelleransätze beherrschen das Feld von Converged Infrastructure und Software-Defined Datacentre.
Foto: Forrester

Bezogen auf die Speicherinfrastruktur finden sich erste Abstraktionsformen im Sinne von Fichera bereits in der Aufteilung von Storage-Arrays in RAIDs (Redundant Array of Independent Disks): Je nach RAID-Definition werden die Dateien oder Dateiblöcke in einem Array quer über sämtliche Festplatten verteilt, um bei einem Ausfall einer oder mehrerer Platten sofort eine Sicherungsversion zur Hand zu haben. In einem SAN (Storage Area Network) oder NAS (Network Attached Storage) macht man sich durch LUNs (Logical Unit Number) von der physikalischen Basis unabhängig: Alle Platten eines Arrays erscheinen als ein gemeinsamer Pool, der dann für unterschiedliche Applikationen und Dateien in logische Einheiten aufgeteilt wird. Dies funktioniert auch über mehrere zusammengekoppelte Arrays hinweg, wobei diese – zumindest theoretisch – sogar von verschiedenen Herstellern stammen können. In vielen Rechenzentren hat man aber auf solche komplexen Lösungen verzichtet und unterhält verschiedene Speichersilos parallel nebeneinander.

Wann es wirklich zu den ersten real existierenden "Software-Defined"-Rechenzentren kommt, ist aus heutiger Sicht schwer zu beurteilen. Für Unternehmen wird es jedenfalls neue interessante Virtualisierungs- und Automatisierungsangebote geben. Wie man das Kind dann am Ende nennt dürfte den meisten IT-Verantwortlichen herzlich egal sein. (wh)

Dieser Artikel basiert auf einem Beitrag der TecChannel-Schwesterpublikation CIO.de.