Virtualisierung im SDDC

Das müssen Sie auf den Weg ins Software-defined Data Center beachten

2014 ist das Jahr, in dem Unternehmen sich dem Thema Software-defined Data Center (SDDC) zuwenden sollten. Die Technik zur einheitlichen, softwarebasierten Steuerung eines virtualisierten Rechenzentrums stehe vor der Reife, meinen US-Analysten.

Mit dem Schlagwort Software-defined Data Center (SDDC) hat die Virtualisierungsdiskussion den Rechenzentrumsbetrieb erreicht. Das Konzept sieht vor, über die einzelnen, virtualisierten Bestandteile eines Data Centers - etwa Server, Netzwerke, Speicher, Security - eine Abstraktionsschicht zu legen, die die gesamte Infrastruktur steuert, kontrolliert, provisioniert und automatisiert (siehe Software-defined Data Center - Hype oder Realität?).

Das US-Markforschungshaus Enterprise Management Associates (EMA) ist überzeugt, dass diese Idee noch im Laufe dieses Jahres Realität wird und die erforderlichen Produkte und Techniken so reif sind, dass Anwender ein SDDC implementieren können.

In einem Blog-Beitrag rät EMA-Berater Torsten Volk Unternehmen, sich mit dem Konzept ernsthaft zu beschäftigen. Ein softwarebasierter Betrieb der Data Center sei erforderlich, weil die IT-Mannschaft künftig nicht mehr schnell genug den Bedarf der Fachbereiche an IT-Ressourcen erfüllen kann. "Im Kern eines SDDC steht der Anspruch, dass Anforderungen der Fachbereiche besser bedient werden können, wenn die IT-Infrastruktur - egal ob intern oder extern betrieben - zentral kontrolliert wird. Die Ressourcen werden ganz klar am Bedarf von Applikationen und Services ausgerichtet", schreibt Volk in einem Report zum Thema. Dazu sollten Anwenderunternehmen bei Neuanschaffungen die Server, Netzkomponenten und Speichersysteme nicht wie bislang je nach Leistung und Funktionsumfang auswählen, sondern darauf achten, wie sie sich in eine zentrale Managementstrategie einfügen.

Volk nannte drei wesentliche Schlüsselelemente für ein Software-defined Data Center (SDDC):

Kapazitätsmanagement

Im SDDC geht es vor allem darum, Hardware zügig zu provisionieren, sodass die Anwender die Ressourcen nutzen können. Dafür wiederum ist es wesentlich, dass auch die benötigten Kapazitäten zur Verfügung stehen, die die Fachbereiche für den Betrieb ihrer Applikationen und Services benötigen. Was nicht da ist, lässt sich nicht zuweisen. Alle Automatisierungsbemühungen wären dann perdu.

Daher ist es erforderlich, sinnvolle Schwellwerte zu finden, die auf anstehende Anforderungen aus den Fachbereichen hinweisen, um rechtzeitig neue Kapazitäten aufzubauen. Dafür gibt es Werkzeuge. Volk nennt etwa "ProactiveNet" von BMC, "Performance Management" von CA und das recht unbekannte Tool "VMTurbo".