Mit dem Schlagwort Software-defined Data Center (SDDC) hat die Virtualisierungsdiskussion den Rechenzentrumsbetrieb erreicht. Das Konzept sieht vor, über die einzelnen, virtualisierten Bestandteile eines Data Centers - etwa Server, Netzwerke, Speicher, Security - eine Abstraktionsschicht zu legen, die die gesamte Infrastruktur steuert, kontrolliert, provisioniert und automatisiert (siehe Software-defined Data Center - Hype oder Realität?).
Das US-Markforschungshaus Enterprise Management Associates (EMA) ist überzeugt, dass diese Idee noch im Laufe dieses Jahres Realität wird und die erforderlichen Produkte und Techniken so reif sind, dass Anwender ein SDDC implementieren können.
In einem Blog-Beitrag rät EMA-Berater Torsten Volk Unternehmen, sich mit dem Konzept ernsthaft zu beschäftigen. Ein softwarebasierter Betrieb der Data Center sei erforderlich, weil die IT-Mannschaft künftig nicht mehr schnell genug den Bedarf der Fachbereiche an IT-Ressourcen erfüllen kann. "Im Kern eines SDDC steht der Anspruch, dass Anforderungen der Fachbereiche besser bedient werden können, wenn die IT-Infrastruktur - egal ob intern oder extern betrieben - zentral kontrolliert wird. Die Ressourcen werden ganz klar am Bedarf von Applikationen und Services ausgerichtet", schreibt Volk in einem Report zum Thema. Dazu sollten Anwenderunternehmen bei Neuanschaffungen die Server, Netzkomponenten und Speichersysteme nicht wie bislang je nach Leistung und Funktionsumfang auswählen, sondern darauf achten, wie sie sich in eine zentrale Managementstrategie einfügen.
Volk nannte drei wesentliche Schlüsselelemente für ein Software-defined Data Center (SDDC):
Kapazitätsmanagement
Im SDDC geht es vor allem darum, Hardware zügig zu provisionieren, sodass die Anwender die Ressourcen nutzen können. Dafür wiederum ist es wesentlich, dass auch die benötigten Kapazitäten zur Verfügung stehen, die die Fachbereiche für den Betrieb ihrer Applikationen und Services benötigen. Was nicht da ist, lässt sich nicht zuweisen. Alle Automatisierungsbemühungen wären dann perdu.
Daher ist es erforderlich, sinnvolle Schwellwerte zu finden, die auf anstehende Anforderungen aus den Fachbereichen hinweisen, um rechtzeitig neue Kapazitäten aufzubauen. Dafür gibt es Werkzeuge. Volk nennt etwa "ProactiveNet" von BMC, "Performance Management" von CA und das recht unbekannte Tool "VMTurbo".
Multi-Cloud-Management-Plattformen
Data Center haben komplizierte Architekturen. Homogene Rechenzentren, die mit Komponenten eines Herstellers bestückt sind, gibt es selten, gängig ist ein Mix aus diversen Lösungen. Selbst innerhalb eines Anwendungsfeldes und in relativ neuen Backend-Technologien dominiert die Vielfalt. So ist es durchaus üblich, dass in Unternehmen, die in Sachen Virtualisierung eine klare VMware-Strategie fahren, vereinzelt Hyper-V-Installationen von Microsoft zu finden sind. Wo die IT-Strategie Private-Cloud-Strukturen vorsieht, werden dennoch Amazon Web Services (AWS) oder andere externe Cloud-Dienste genutzt.
Unterm Strich haben mit der zunehmenden Virtualisierung der Server, Speichersysteme und Netze sehr viele unterschiedliche Hypervisor-Technologien den Weg ins Data Center gefunden. Eine verlässliche Kontrolle und Steuerung von SLAs und Security-Systemen sowie der Application-Performance ist kaum möglich.
Um die Komplexität in den Griff zu bekommen, empfiehlt EMA-Manager Volk Multi-Cloud-Management-Plattformen. Mehr und mehr Anbieter von Cloud-Management-Portalen implementieren Unterstützungsfunktionen für Techniken unterschiedlicher Hersteller. Für den Betrieb von SDDC hält der EMA-Experte die Nutzung derartiger Managementplattformen für unerlässlich.
Konfigurationsmanagement
Ganz entscheidend für den Erfolg eines Software-defined Data Centers (SDDC) ist die Migration von einer manuellen Ressourcenzuteilung zu einem automatisieren Provisioning.
Für eine selbsttätige Zuteilung der erforderlichen Computing-, Netz- und Speichersysteme muss der Provisioning-Lösung bekannt sein, welche Anforderungen die jeweiligen Applikationen beziehungsweise die genutzten Services haben. Hier setzt auch die in jüngster Zeit vielfach von den Softwareherstellern zitierte "Devop"-Idee an. Um solche Informationen liefern zu können, müssen Entwickler (Developer) schon in der Gestaltung der Applikationen eng mit den Betriebsexperten (Operator) kooperieren.
Volk nennt beispielhaft die zwei Tools "Puppet" (von Puppet Labs) und "Chef" (vom gleichnamigen Unternehmen), die beim automatischen Provisioning helfen.
SDDC braucht eine neue Abstraktionsschicht
Alles in allem benötigen SDDCs laut Volk eine neue Abstraktionsschicht oberhalb von Hardwareressourcen sowie internen und externen Cloud-Installationen. Sie ermächtigt Applikationen auf Basis von Leistungsdaten, Sicherheits- und Verfügbarkeitsanforderungen dazu, die eigene IT-Umgebung so zu definieren, dass immer ausreichend Kapazitäten bereitstehen.
Dass der Weg zum SDDC notwendig ist, will das Marktforschungshaus mit Umfragedaten belegen. Demnach sind 70 Prozent der IT-Nutzer der Meinung, IT-Projekte sollten nicht länger als zwei Wochen dauern. 40 Prozent der befragten IT-Manager stufen ihre manuellen Prozesse zur Konfiguration der IT-Infrastruktur als zu langsam ein, wenn etwa Anforderungen aus den Fachbereichen umgesetzt werden sollen.
SDDC sei der "goldene Pfad", diese Herausforderungen zu lösen, finden die Marktbeobachter von EMA. (hal)