Storage, Netzwerk und Komplettlösungen

Server-Virtualisierung - die wichtigsten Trends

Zwar hat sich Server-Virtualisierung in den Unternehmen etabliert, doch die Technologie bietet noch eine Menge Entwicklungspotenzial. Welche Trends IT-Verantwortliche dieses und kommendes Jahr nicht verpassen sollten, erläutern die Server-Experten von Dell, Fujitsu, HP und IBM.

Die Virtualisierung von Server-Systemen gehört in vielen Unternehmen zum Alltag von IT-Verantwortlichen. Doch Technologien wie Storage- und Netzwerk-Virtualisierung sowie komplette virtuelle Data Center rücken nach und stellen die Unternehmens-IT vor neue Herausforderungen.

Das Ziel ist klar definiert: Durch den Einsatz von Virtualisierungs-Technologien sollen veraltete Systeme durch neue, performante Geräte ersetzt werden. Diese sollen energieeffizient arbeiten, hochskalierbar sein, eine hohe Ausfallsicherheit besitzen und darüber hinaus Kosten sparen.

Wie sich die Server-Virtualisierung in diesem Bereich mit Blick auf die genannten Themen künftig entwickelt, erläutern die Experten von vier Herstellern. Die Fragestellung lautet: Auf welche allgemeinen Trends im Bereich Server-Virtualisierung müssen sich kleine und mittelständische Unternehmen in den Jahren 2014/15 einstellen?

  • Peter Dümig, Enterprise Solutions Marketing Manager; Dell

  • Stefan Lautenschläger, Head of Pre-Sales Strategic Infrastructure Solutions Central Europe; Fujitsu

  • Johannes Horneck, Business Development Manager Datacentre Solutions; Hewlett-Packard

  • Thomas Harrer, Client Technical Architect / Chairman TEC Central Region; IBM Deutschland GmbH

Trends bei der Server-Virtualisierung

Peter Dümig, Dell: "Bei der Server-Virtualisierung sind zurzeit keine eigenen Technologietreiber erkennbar. Wir nutzen aber die allgemeinen Trends am Markt, die auch in diesem Bereich immer wichtiger werden, besonders für kleine und mittelständische Unternehmen. Zu diesen Trends zählt etwa lokaler Speicher bei der Virtualisierung: Er ist eine preiswerte Alternative zum zentralen Storage, wie ihn VMware Virtual SAN oder Microsoft Storage Spaces zur Verfügung stellen. Ein weiteres Stichwort ist Offload von IOs. Dazu kommt das weitere Vorantreiben der Virtualisierung in Richtung LAN."

Stefan Lautenschläger, Fujitsu: "Auch wenn wir heute von einem hohen Virtualisierungs-Grad sprechen, stellen wir immer wieder fest, dass die Durchdringung vor allem in dem von Ihnen angesprochenen Kundenkreis noch nicht so stark umgesetzt ist wie vermutet. Das liegt vor allem an der Komplexität beim Übergang von physikalischen in virtualisierte Umgebungen. Eine große Herausforderung ist das Thema "zentraler Storage". Viele dieser Kunden scheuen vor den planerischen und finanziellen Risiken einer Storage- und SAN-Umgebung zurück, auch wenn sie den Nutzen der Virtualisierung erkannt haben.

Die IT-Hersteller haben darauf reagiert und bieten für dieses Marktsegment Bundles und Referenzarchitekturen an. Diese nehmen den Kunden einen wesentlichen Teil der Risiken ab. Neue Technologien wie Storage-Virtualisierungs-Funktionen im Betriebssystem und Hypervisor reduzieren die Komplexität von Virtualisierungs-Plattformen massiv. Dabei nutzen Betriebssystem und Hypervisor lokale SSDs und Festplatten in den einzelnen Servern, um nicht nur Computerleistung zur Verfügung zu stellen, sondern auch gemeinsam nutzbaren Storage.

Wenn bereits Virtualisierungs-Technologien genutzt werden, stehen oft die Hardwareeinsparungen und Konsolidierungsmöglichkeiten im Fokus. Gleichzeitig wächst die Zahl der virtuellen Maschinen auf den Hosts durch die wachsende Leistungsfähigkeit der Server immer weiter. Die meisten geschäftskritischen Anwendungen laufen oft auf wenigen Hosts, und Störungen können so leicht den gesamten Betrieb beeinflussen. Darum werden Hochverfügbarkeit und Konzepte zum Site Failover für das Data Center immer wichtiger. Um mit der bestehenden IT-Mannschaft diese wachsenden Anforderungen abzudecken, können kleine und mittelgroße Unternehmen auf Referenzarchitekturen und Tools aufsetzen, die DC-Management und Automation unterstützen ohne dass zusätzliche Ressourcen aufgebaut werden müssten."

Johannes Horneck, HP: "In den vergangenen Jahren konnten Unternehmen mithilfe von Server-Virtualisierung IT-Kosten senken und ihre Flexibilität steigern. Da sie nicht mehr von physischen Servern abhängig waren, konnten sie ihre Rechenzentren deutlich entlasten. Gleichzeitig reagierten die Fachbereiche auf die reduzierten Kosten mit einem ungeahnten Hunger nach neuen Anwendungen, was zu einem enormen Anstieg der virtuellen Maschinen führte und die Kosten explodieren ließ. Die Synchronisation der zahlreichen unterschiedlichen Komponenten bedeutete viel Aufwand. Die Flexibilisierung wurde zunehmend durch proprietäre Komponenten im Netzwerkbereich gehemmt. Aufgrunddessen wird künftig eine Server-Virtualisierung allein nicht mehr ausreichen. Der Trend geht immer weiter in Richtung vorkonfektionierte Komplettlösungen für den optimierten Betrieb, die auf einer konvergenten Infrastruktur basieren.

IDC prognostiziert für das Jahr 2014 eine Verdoppelung der Anzahl virtueller Maschinen. Dies stellt eine enorme Herausforderung für die IT-Abteilungen dar: Sie müssen die hohen Erwartungen an Virtualisierungs-Projekte erfüllen, die Geschäftsbereiche unterstützen und jederzeit lieferbereit sein, ohne dabei den geplanten Kostenrahmen zu sprengen. Diese Erwartungshaltung hat sich insbesondere durch die Konzepte externer Cloud-Anbieter festgesetzt. Für den deutschen Mittelstand kommen solche Cloud-Lösungen allerdings in der Regel nicht infrage, da die eigenen Daten am liebsten nur hauseigenen Lösungen anvertraut werden.

Damit IT-Abteilungen diesen hohen Anforderungen gerecht werden, müssen Planungs- und Umsetzungsphasen sowie die Inbetriebnahme von Systemen verkürzt werden. Hier leisten Referenzarchitekturen eine bedingte Hilfestellung. Einen deutlichen Schritt weiter gehen Komplettlösungen, die alle benötigen Komponenten enthalten: Sie lassen sich nicht nur schnell konfigurieren, sondern auch zügig in Betrieb nehmen. Schwierig wird es, wenn die Komplettlösung aus den Portfolios unterschiedlicher Hersteller besteht. In diesem Fall ist die Abstimmung der Komponenten deutlich aufwendiger, denn die IT-Abteilung ist dann einerseits vom Zeitplan jedes einzelnen Herstellers und andererseits von der Entwicklung der strategischen Beziehungen verschiedener Unternehmen in den nächsten Jahren abhängig. Dies kann zum einen zu Schwierigkeiten in der Synchronisation und über die gesamte Laufzeit zu erheblichen Friktionen führen.

Zum anderen neigen viele IT-Verantwortliche dazu, Adaptionen mit dem Fokus auf Einzelkomponenten vorzunehmen, was nicht zwangsläufig zu Vorteilen führt, denn das Zusammenspiel der Komponenten ist viel wichtiger als die individuell angepasste Einzelkomponente. Wesentlich ist jedoch, dass auch bei Komplettlösungen jede einzelne Komponente über offene Standards verfügt, sodass kein "Vendor-Lock-in" entsteht."

Thomas Harrer, IBM: "Der am stärksten wachsende Teil der IT sind die sogenannten Systems of Engagements - das sind Anwendungen, die via Web oder über mobile Geräte in der Regel über soziale Funktionen Kunden, Partner, Mitarbeiter zusammenbringen und deren Zusammenarbeit unterstützen. Das können auch Spiele sein, Big Data, analytische Anwendungen oder Systeme, die das "Internet der Dinge" unterstützen. Diese Systems of Engagements werden immer häufiger in Clouds implementiert - entweder als Private Cloud in den Rechenzentren der Unternehmen, die diese Systeme einsetzen, oder als Public Cloud von Hosting-Anbietern. In beiden Fällen spielt die Server-Virtualisierung eine immer wichtigere Rolle, denn diese Cloud-Strukturen sind meist virtualisiert. Der bedeutendste Trend in diesem Bereich ist der steigende Einsatz offener Standards für die Virtualisierung und das Management von virtualisierten Umgebungen. Hier spielen Linux, KVM und OpenStack eine zunehmende Rolle.

Daneben bleiben die sogenannten Systems of Records bestehen. Das sind die Kernanwendungen von Unternehmen, auf denen die Finanztransaktionen durchgeführt werden oder auf denen kritische Kernprozesse eines Unternehmens abgebildet sind. Für diese Systeme spielen weiterhin proprietäre Lösungen eine Rolle, vor allem in Anwendungsszenarien mit besonders hohen Anforderungen an Performance, Skalierbarkeit oder Sicherheit." (hal)