Ratgeber Virtualisierung

Wann lohnt sich Virtualisierung für kleine und mittelständische Unternehmen?

13.04.2015 von Florian Hettenbach
Steigende Betriebskosten und wachsende Hardwareanforderungen bei immer knapperen Budgets zwingen kleine und mittelständische Unternehmen (KMUs), IT-Kosten zu sparen. Viele setzen daher auf Virtualisierung ihrer IT-Infrastruktur. Aber ab wann lohnt sich IT-Virtualisierung für KMUs wirklich?

Mit Virtualisierung wird eine Abstraktionsebene zwischen Betriebssystem und Hardware geschaffen, der sogenannte Hypervisor. Dieser ermöglicht die Erstellung von virtuellen Containern (VMs), die die gleichen Eigenschaften besitzen wie physikalische Server (CPU, Arbeitsspeicher, Speicherplatz oder Netzwerkschnittstellen). Damit erfolgt in erster Linie die Konsolidierung von vielen, wenig ausgelasteten Systemen auf wenige, gut ausgelastete Systeme, womit sich gleichzeitig virtuelle Maschinen entkoppelt von der Hardware verlagern und verändern lassen.

Dank Virtualisierung kann der Administrator, ähnlich wie bei IPMI, im Notfall vom Home Office aus auf den Server zugreifen. Dadurch wird das Management flexibler und ermöglicht es dem Administrator, sich vermehrt um andere anfallende Aufgaben zu kümmern. Auch die Hardwarekosten sinken, da auf den virtuellen Servern ältere Anwendungen einwandfrei betrieben werden können und neue Hardware sehr schnell virtualisiert bereitgestellt werden kann, unabhängig vom Anbieter.

Ein weiterer wichtiger Faktor sind die Energiekosten, da durch die Verringerung der physikalischen Server weniger Strom verbraucht wird. Zudem wird es ermöglicht, mehrere Gastsysteme auf nur einer physikalischen Maschine laufen zu lassen, ganz gleich, ob Windows oder Linux. Außerdem können Wartungsfenster besser geplant werden, da laufende Systeme ohne Unterbrechung von einem Server zum anderen verschoben werden können, und dies inzwischen auch ohne zentrales Speichersystem.

Bildergalerie: Virtualisierung
Kostenlose Virtualisierungssoftware im Vergleich
Microsoft Hyper-V Server 2012 R2, VMware ESXi 5.5, Citrix XenServer 6.2 und KVM 2.6.20 stellen sich dem Praxis-Check. Was taugen die kostenlosen Hypervisoren, und was bringen sie im Unternehmenseinsatz?
Microsoft Hyper-V SRIOV
Hyper-V unterstützt mit SRIOV eine flexible Netzwerkanbindung für VMs.
Microsoft Hyper-V Nested Virtualization
Der künftige Microsoft Hypervisor 2016 wird Nested Virtualization unterstützen.
Citrix XenServer XenMotion
Mit XenMotion beherrscht XenServer die Live Migration zwischen Hosts im selben Pool.
Citrix XenServer VM-Snapshot
Von VMs können in XenCenter Snapshots im Live-Betrieb als Backups erstellt werden.
VMware ESXI-Console
Die ESXi Textkonsole ermöglicht die lokale Host-Konfiguration.
VMware vSphere Webclient
Die Zukunft des Managements liegt bei VMware vSphere beim vSphere Webclient, der jedoch nicht für den kostenfreien ESXi verwendet werden kann.
KVM oVirt
Mit oVirt lassen sich komplexe KVM-Virtualisierungsumgebungen vom Webbrowser aus managen.
KVM RHEV
RHEV als umfassende Virtualisierungslösung auf Basis offener Software und Linux nutzt ebenfalls KVM als Hypervisor.

Grundsätzlich gilt: Wenn es Ressourcen gibt, die nicht genutzt werden, dann ist Virtualisierung auf jeden Fall interessant.

Für eine virtualisierte Umgebung ist stabile Hardware unerlässlich. Neben den Servern ist in vielen Fällen ein zentrales Speichersystem erforderlich, das unbedingt ausreichend dimensioniert sein muss. Um hier eine performante Infrastruktur zu implementieren, ist zuvor eine genaue Bedarfsanalyse durchzuführen, die neben der Zahl der zu virtualisierenden Server auch detaillierte Daten zum Anwendungsverhalten enthalten muss. Lässt man diese Analyse außen vor, läuft man Gefahr, dass man entweder zu groß dimensioniert, was unnötige Kosten verursacht, oder zu klein, was im schlimmsten Fall zu einer Nichtfunktion der gesamten Umgebung führen kann - im letzteren Fall ist man froh, wenn man bei der Auswahl der Systeme zumindest auf eine unkomplizierte "Aufrüstbarkeit" geachtet hat. Gegen Virtualisierung spricht, wenn Applikationen vorhanden sind oder genutzt werden, die besonders ressourcenintensiv sind, das heißt sowohl bei CPU/RAM als auch hinsichtlich der Geschwindigkeitsanforderung an das Speichersystem (IOPS). Diese Applikationen könnte man vielleicht verteilen, was aber nicht zielführend ist. Ideal sind eine gleichbleibende und niedrige Auslastung sowie möglichst homogene Umgebungen.

Ob sich eine Investition in die Virtualisierung für kleine und mittelständische Unternehmen lohnt, muss daher in einer individuellen und professionellen Bestandsaufnahme geklärt werden. Aufgrund dessen Komplexität sollte zu Beginn eines Virtualisierungsprojektes ein Modell erstellt werden, wie eine solche Umgebung überhaupt konkret aussehen könnte und wie hoch die entsprechende Investition wäre. Hierzu gibt es kein Schema F, nach dem verfahren werden kann.

Am Anfang stehen in jedem Fall das Konzept und die Ist-Soll-Analyse. Bevor mit dem Projekt begonnen wird, müssen die folgenden Fragen geklärt werden:

• Was soll mit der Virtualisierung erreicht werden?

• Welcher Aspekt von Virtualisierung bringt dem Unternehmen die meisten Vorteile?

• Welche Nachteile handelt man sich möglicherweise dadurch ein?

• Was passiert im Fehlerfall?

Technisch betrachtet ist Virtualisierung erst ab fünf zu virtualisierenden Servern sinnvoll, weil bei einer geringeren Serveranzahl das Ausfallrisiko durch die Konsolidierung erhöht wird. Um dagegen eine entsprechende Ausfallsicherheit und Hochverfügbarkeit herzustellen, muss man in kostenpflichtige Lösungen investieren. Dementsprechend sollte man sich genau überlegen, ob sich dies für das Unternehmen rechnet.

Nachfolgend geben wir einige Tipps, die den Einstieg in die Virtualisierung erleichtern sollen, und erläutern, wie ein grundlegendes IT-Konzept aussehen kann, das die Themen Virtualisierung, Speichersysteme, Backup und Hochverfügbarkeit miteinander verbindet. Virtualisierung benötigt das entsprechende Rückgrat in der IT-Infrastruktur, daher wollen wir uns zunächst der entsprechenden Hardware widmen. Anschließend wird es um die entsprechenden Softwarelösungen gehen, mit denen man die virtualisierte Umgebung verwaltet und organisiert.

Dimensionierung und Auswahl der Hardware

Storage

Im Zuge der Virtualisierung sehen sich viele Unternehmen mit der Notwendigkeit konfrontiert, dass ein zentrales Speichersystem angeschafft oder das vorhandene System (bezogen auf Geschwindigkeit und/oder Kapazität) ausgebaut werden muss. Zur Auswahl eines entsprechenden Systems sind die Performance-Werte hinsichtlich IOPS und Mbyte/s zu beachten.

Diese Werte sind nicht ohne Weiteres abrufbar. Bei Linux-Systemen bietet sich das Programm "blktrace" an, bei Windows-Systemen (ab Server 2008) kann man mit dem Tool "Perfmon" und entsprechenden Parametern bereits viele Werte aufzeichnen.

Neben der Geschwindigkeit gilt es die Frage nach der Verfügbarkeit des Systems zu klären. Die Erfahrung hat gezeigt, dass bei der Erstanschaffung eines Speichersystems für Virtualisierung oft proprietäre "Dual-Controller"-Systeme verwendet werden. Diese besitzen zwei Hot-Swap-Mainboards (Controller) und sorgen mit automatischen Fehlererkennungsmechanismen für den ununterbrochenen Zugriff auf den Speicher bei Hardwareproblemen. Die Auswahl eines Speichersystems kann aufgrund der Vielzahl an Anbietern und Technologien zu einer unüberschaubaren Komplexität führen. Folgende Fragen helfen als Richtlinie zur Auswahl:

• Welche Erfahrung hat man in der Vergangenheit schon mit SAN-/NAS-Systemen gemacht?

• Gibt es von diesem Hersteller eine zertifizierte Lösung für den gewählten Hypervisor?

• Ist man bereit, sich mit der Thematik näher auseinanderzusetzen?

Bei der Anbindung des Speichersystems wird empfohlen, ein System auszuwählen, dass sowohl NFS als auch iSCSI sprechen kann. Mit NFS sollte gestartet werden, da dieses Protokoll einfacher in der Handhabung ist und - richtig konfiguriert - in vielen Fällen iSCSI in keiner Weise nachsteht. Es ist jedoch ein Trend in Richtung iSCSI über 10GbE (10GBASE-T / SFP+) erkennbar.

Mögliche Ausstattung des Storage:

Blockbasiertes Dual-Controller-Speichersystem:

- iSCSI 10GbE (10GBASE-T): iSCSI setzt Kenntnisse über LUN-Dimensionierung, Blockgrößen und die damit verbundenen Einschränkungen voraus.

- Speicherkapazität: Diese setzt sich zusammen aus der Menge der tatsächlich genutzten Speicherkapazität und dem Puffer für einen weiteren Ausbau, ohne dass zusätzliche Erweiterungseinheiten angeschlossen werden müssen.

- Beispielsweise: 12 x 600 GByte SAS 10k 2,5"

Virtualisieren - aber richtig: Im Idealfall kann Virtualisierung durch Konsolidierung einer veralteten IT-Infrastruktur Kosteneinsparungen bringen.
Foto: Thomas Krenn AG

Server

Als physikalische Plattform für Virtualisierung dienen weiterhin konventionelle x86-Server-Systeme. Bei der Auswahl der Server ist es sehr wichtig, auf mitunter notwendige Zertifizierungen zu achten, um im Fehlerfall auch Support vom Softwarehersteller zu bekommen. Als gängige Server können zum Beispiel 2HE-Systeme von Thomas-Krenn mit Intel-Dual-Socket und möglichst vielen PCIe Steckplätzen gewählt werden. Zwei Höheneinheiten sind der ideale Kompromiss zwischen Flexibilität beim Ausbau und einer geringen Bauhöhe.

Zu beachten ist, dass die Arbeitslast von virtualisierten Servern auf das Speichersystem durch die Konsolidierung zufällig wird und somit Muster sehr schwer erkennbar sind, gerade wenn es um das Identifizieren der aktuellen Arbeitslast (in der physischen Welt) geht. Empfohlen wird die Verwendung von mindestens drei physikalischen Servern, da Fehlerszenarien, Wartungsarbeiten und Lastausgleich leichter gehandhabt werden können. Aus Kostengründen kann jedoch auch mit zwei Servern gestartet werden.

Zur genauen Dimensionierung können die Spezifikationen der vorhandenen Systeme herangezogen werden, relativ zur tatsächlichen Auslastung.

Mögliche Ausstattung der Server (Hosts für Virtualisierung):

2HE-Server:

- 2x mittlere 6/8-Kern-CPU

- 64GB RAM

Population mit Aufrüstungsmöglichkeit vorsehen

- 2 Netzwerk-Ports Onboard (1GbE)

- Vorinstallierter ESXi auf USB-Stick

- 4 Netzwerk-Ports als Zusteckkarte (1GbE)

- 2 Netzwerk-Ports als Zusteckkarte (10GbE 10GBASE-T)

optional:

- Raid-Controller (inkl. Cache-Schutz)

- 2x 80GB SSD (ESXi - Raid 1)

Switche

Um die Kosten gering zu halten, kann mit einem - idealerweise zwei - günstigen 10GBASE-T-Switchen gestartet werden.

Software & Management

Um eine möglichst gute Übertragbarkeit der Informationen zu gewährleisten, werden Produkte von gängigen Herstellern benannt. Als Softwarehersteller sind VMware (ESXi), Microsoft (Hyper-V), Red Hat (KVM) und Citrix (XenServer) zu nennen. Das VMware-Essential-Plus-Paket zum Beispiel eignet sich ideal zum Einstieg in die Virtualisierung und bietet daneben bereits Hochverfügbarkeits- und Live-Migrations-Optionen.

Wie bereits angeführt, lassen sich nicht alle Applikationen beziehungsweise Server virtualisiert besser betreiben. Gerade Anwendungen, die hohe Anforderungen an CPU, RAM und das Speichersystem stellen, sind weniger für Virtualisierung geeignet. Die Anzahl nicht-virtualisierter Server sinkt zwar kontinuierlich, jedoch gibt es immer wieder "Ausreißer".

Backup-Software

Der Einsatz von Virtualisierung als neues Server-"Betriebssystem" führt neben vereinfachter Verwaltung und Provisionierung von virtuellen Servern auch zu einer möglichen Neubetrachtung der Backup-Umgebung. Die Frage, was man auf welcher Ebene sichert, ist nicht einfach zu beantworten und kann von Fall zu Fall unterschiedlich sein. Gängige Hersteller für Backup-Software sind SEP oder Veeam.

Passend zum VMware-Essential-Plus-Paket bietet Veeam ebenfalls die Enterprise-Variante im Essential-Paket an. Veeam bietet eine benutzerfreundliche Oberfläche mit Tape/RDX-Unterstützung und kann neben dem Backup von VMs auch Replikationen durchführen.

Trends in der Virtualisierung

Mit dem Trend zu "Software Defined Storage" wird es in Zukunft möglich sein, dass man auf separates Netzwerk-Equipment und ein Speichersystem verzichtet und stattdessen den lokalen Speicherplatz innerhalb der Virtualisierungs-Hosts nutzt.

Produkte wie zum Beispiel vSAN von VMware und ähnliche Konzepte von anderen Anbietern führen dazu, dass die Server an sich leistungsfähiger ausgestattet werden und man größere Server (3/4 HE) mit der Möglichkeit anbieten kann, viel Speicherkapazität (HDDs) und hohe IO-Leistung (SSDs) in einem System zu vereinen, das aufgrund der intelligenten Speichersoftware, die ebenfalls virtuell läuft, die gleichen Möglichkeiten bietet wie der Einsatz eines separaten, zentralen Speichersystems. Diese Entwicklung könnte dazu führen, dass auch kein Raid-Controller mehr im Server verbaut werden müsste, sondern ein einfacher SAS-Host-Bus-Adapter (HBA) genügt.

Abschließend ist festzuhalten, dass für Virtualisierung eine entsprechende Ausstattung der IT-Infrastruktur vorhanden muss, um dessen Vorteile auch ausschöpfen zu können. Ob die Investitionen am Ende rentabel sind, muss im Einzelfall analysiert und im Konzept dargestellt werden. (hal)