Desktop-Virtualisierung

Ratgeber - Virtuelle Desktops in eine IT-Infrastruktur integrieren

01.07.2010 von Andreas Kohne
Laut einer Studie des Beratungshauses Centracon, wird Desktop-Virtualisierung für Unternehmen immer wichtiger. Unser Ratgeber zeigt, wie Sie virtuelle Desktops in Ihre bestehende Infrastruktur integrieren und auf was Sie dabei achten müssen?

Gründe, die Desktop-Landschaft zu virtualisieren, gibt es viele: Vorhandene PCs sind etwa zu alt oder stoßen an ihre Leistungsgrenzen. Statt teure Fat Clients neu zu beschaffen, kann ein Unternehmen beispielsweise auf virtuelle Desktops mit günstigen Thin Clients umsteigen. Auch die zunehmende Mobilität spielt oft eine Rolle, sich näher mit virtuellen Desktops zu befassen.

Darüber hinaus ist zu erwarten, dass in absehbarer Zeit bei einer Vielzahl von Unternehmen der Wechsel auf Windows 7 ansteht. Hier ließe sich etwa die aktuelle PC-Landschaft auf eine Virtual Desktop Infrastructure (VDI) migrieren. Werden dabei alle Möglichkeiten der Virtualisierung angewendet, wie zum Beispiel die Applikations-Virtualisierung, kann letztlich mit wenigen Mausklicks migriert werden.

Die Trennung von Applikationen, Benutzerdaten und Betriebssystem im Rahmen der Desktop-Virtualisierung vereinfacht die Migration, da die einzelnen Bereiche unabhängiger voneinander sind als in einem klassischen Client-Konzept. Die Migration lässt sich also soweit vorbereiten, dass am Tag X oder einem Migrationszeitraum die Anwender Schritt für Schritt neue Endgeräte erhalten – seien es Thin Clients oder Notebooks.

Virtualisierungs-Check durchführen

Die Virtualisierung von Client-Arbeitsplätzen steckt noch in den Anfängen und mit den Technologien und Herstellerprodukten sind die Anwenderunternehmen in der Regel noch nicht vertraut. Eine ganzheitliche Betrachtung hilft, sich dem Thema zu nähern. Hierbei sind einige entscheidende Fragen zu beantworten:

Wegweiser: Die Grafik beschreibt die prinzipielle Vorgehensweise eines Virtualisierungs-Checks. (Quelle: Materna)

Ein Virtualisierungs-Check hilft dabei, die Ist-Situation zu analysieren und zu bewerten. Dabei verschaffen sich die IT-Verantwortlichen einen Überblick über die bestehende Client- und Server-Umgebung. Wichtige Informationen sind etwa, welche Desktops mit welchen Anwendungen genutzt werden und welche Leistungsanforderungen sich daraus ableiten lassen. Darüber hinaus ist unter anderem zu klären, welche Speicherkapazitäten das Rechenzentrum für den effizienten Betrieb der Desktops benötigt. All diese Aspekte werden unabhängig von der Technologie betrachtet und in ein späteres Konzept integriert.

Anwenderprofile und Ressourcen der virtuellen IT-Infrastruktur beachten

Ob sich der Umstieg auf virtuelle Desktops lohnt, hängt auch davon ab, welche Benutzergruppen damit arbeiten sollen und welche Aufgaben die Mitarbeiter erledigen. An dieser Stelle kommt es beispielsweise darauf an, ob es sich um Standard-Arbeitsplätze mit den üblichen Office-Anwendungen handelt oder auch spezielle Fachanwendungen und Multimedia-Applikationen geladen oder gar Videos gestreamed werden müssen.

Aus der genauen Analyse der Benutzergruppen und der Ermittlung der Anwendungsprofile ergeben sich Informationen über die benötigte Bandbreite, die Ressourcen wie CPU und RAM und somit ein Sizing der angestrebten virtuellen Infrastruktur. Daraus lässt sich unter anderem ableiten, welche Netzlasten durch den Betrieb von virtuellen Desktops entstehen werden. Anhand dieser Informationen können die Verantwortlichen entscheiden, welche Protokolle für den Zugriff zu verwenden sind: beispielsweise das einfache RDP-, das optimierte ICA-, das von VMware neu in Software eingeführte PCoIP-Protokoll oder das von HP für Hochleistungsgrafik entwickelte RGS-Protokoll.

Netzbandbreiten ermitteln und optimieren

Ein wichtiges Kriterium ist dabei die Netzwerklast. Sie ist besonders hoch, wenn etwa grafikintensive Anwendungen über schmalbandige Verbindungen oder ein zentraler virtueller Desktop an einen lokalen Drucker angebunden werden sollen. Außerdem sollten IT-Verantwortliche analysieren, über welche Wege auf das Netz zugegriffen werden kann (VPN) und ob die Richtlinien für den sicheren Zugriff auf virtuelle Desktops zu erweitern sind.

Aus diesen Aspekten lassen sich die Leistungsanforderungen an eine virtualisierte Umgebung ableiten. Aus dem bisherigen Verbrauch können die IT-Verantwortlichen beispielsweise abschätzen, welche Ressourcen die Anwender künftig auf ihren virtuellen Desktops benötigen. Auf diese Weise lassen sich optimale Netzwerkverbindungen einrichten, damit die Latenzen gering sind und die Anwenderzufriedenheit hoch ist.

Ein weiterer Faktor, der die Netzwerkverbindungen beeinflusst, ist das Drucken – ähnlich wie bei der Terminal-Server-Technologie. Es gibt zwar Kompressionsverfahren, aber sobald gedruckt werden soll, dann müssen Daten zwangläufig über die Leitung fließen.

Werden alle diese Faktoren berücksichtigt, lässt sich ein optimales Sizing anhand der gemessenen Leistungsdaten ermitteln. Daraufhin lassen sich im Rahmen eines Virtualisierungs-Checks Benutzergruppen identifizieren und konsolidieren. Ziel ist es, mit einer möglichst kleinen Anzahl an Basis-Images möglichst viele Nutzer abzudecken. Die jeweilige Gruppe sollte eine möglichst große Schnittmenge an Einstellungen sowie genutzten Applikationen und Ressourcen, wie Bandbreite, CPU und RAM, mitbringen.

Genügend Storage bereitstellen

Ausreichend Speicherkapazität – das ist eine weitere Herausforderung für die Desktop-Virtualisierung. Werden in einem Unternehmen beispielsweise mehrere Tausend XP- oder Vista-Systeme einschließlich Applikationen und Daten im Storage abgelegt, wird entsprechend viel Speicherkapazität benötigt – das kann teuer werden. Bei den ersten Versionen der Virtualisierungslösungen wurden die Systeme zunächst noch eins zu eins im Storage abgebildet. Diese Schwachstellen sind inzwischen ausgemerzt, da die Hersteller ihre Produkte nachgerüstet haben.

VMware setzt beispielsweise seine Linked Clone Technologie ein, um den benötigten Speicherplatz zu reduzieren. Hierbei werden so genannte Golden Images erstellt. Das sind Basis-Images, die die Grundapplikationen verfügbar machen. Zunächst wird von den Golden Images ein Clone erstellt. Die Anwender arbeiten auf Snapshots des Clones, so dass nur noch die Deltas zu den Golden Images vorgehalten werden. Da nicht jeder Anwender eine vollwertige virtuelle Maschine erhält, reduziert diese Vorgehensweise den Speicherplatz.

Citrix hat mit dem Provisioning-Server ebenfalls eine entsprechende Komponente in seine XenDesktop Suite integriert. Der Provisioning-Server ermöglicht das Streaming von Betriebssystem und Festplatten. Das heißt, es wird nur noch eine geringe Anzahl an Basis-Images im Storage vorgehalten und on Demand in die Maschinen-Sessions übertragen. Anschließend werden auch hier aus dem Golden Image nur noch die Ressourcen nachgeladen, die der Anwender tatsächlich benötigt. Ein solches Vorgehen sorgt für schmale Bandbreiten und zudem kann ein Provisioning-Server mehrere Hundert Betriebssysteme gleichzeitig versorgen.

Integration über alle Virtualisierungsebenen hinweg beachten

Alle Hersteller von Virtualisierungslösungen bieten die grundlegende Funktionalität, virtuelle Desktops zu erzeugen, bereitzustellen, zu kopieren und mit Backup zu versorgen. Ebenfalls wichtig ist jedoch auch ein übergreifendes Interface: Damit können die Verantwortlichen die verschiedenen Virtualisierungsumgebungen unter einer einheitlichen Management-Plattform betreiben – von den virtuellen Hosts über die Desktop-Virtualisierung bis zur Applikations-Virtualisierung.

Zudem sollte es möglich sein, die virtuellen Desktops aus der gleichen Management-Oberfläche heraus zu konfigurieren. So kann der Benutzer direkt damit arbeiten und Netzwerkfreigaben, Druckerkonfigurationen und sonstige Einstellungen sind bereits in das Benutzerprofil integriert. Für diese Herausforderungen haben die führenden Virtualisierungs-Hersteller noch keine Lösungen parat.

Beratungsunternehmen wie beispielsweise Materna entwickeln dafür aber individuelle Konzepte. So können Unternehmen uneingeschränkt von den Vorteilen der Desktop-Virtualisierung profitieren: effektivere Administration und flexible Anwender. (hal)