Desktop-Virtualisierung

Tipps zur Migration auf virtuelle Clients

12.06.2012 von Andreas Kohne
Desktop-Virtualisierung ist komplex und beinhaltet mehr als nur virtuelle Windows-PCs. Damit ein solches Projekt erfolgreich ist, muss die gesamte IT-Infrastruktur eines Unternehmens überdacht werden. Wir geben Ihnen acht Tipps, die Sie bei der Desktop-Virtualisierung unbedingt beachten sollten.

Wer in seiner Organisation die Desktop-Virtualisierung einführen möchte, steht vor weitreichenden technischen und organisatorischen Neuerungen. Die Praxis zeigt, dass ein solches Virtualisierungsprojekt nur bei guter Vorbereitung und präziser Planung die erhofften Vorteile bringt. Der folgende Beitrag beschreibt die acht größten Herausforderungen.

Nicht immer ist für die Verantwortlichen ersichtlich, warum ein Virtualisierungsprojekt so viele Eingriffe in die bestehende IT-Infrastruktur und in die IT-Prozesse erfordert. Der Grund hierfür ist schnell ausgemacht: Es ist die für die Desktop-Virtualisierung notwendige Standardisierung von Technologien und Prozessen. Je nach Ist-Zustand der bestehenden Infrastruktur sowie der Prozesse fällt der Gesamtaufwand des Projekts groß oder klein aus.

Acht Tipps für virtuelle Clients
CIO der Dekade
Die begehrten Pokale gab es für insgesamt sechs Preisträger.
CIO der Dekade
Klaus Straub, CIO der Audi AG, ist CIO der Dekade. Neben dem Pokal nahm er von Moderatorin Katrin Müller-Hohenstein eine Flasche Rotwein aus dem Jahr 2001 entgegen.
CIO der Dekade
Und noch ein Preis für Klaus Straub: Die Gewinner der Kategorie "Wertbeitrag der IT" sind Audi-CIO Klaus Straub (links) und - nicht im Bild - Michael Gorriz, CIO der Daimler AG. Frank Riemensperger, Vorsitzender der Geschäftsleitung von Accenture, hielt die Laudatio für beide Preisträger in dieser Kategorie.
CIO der Dekade
Gewinner der Kategorie "Überzeugungsstärke im Unternehmen": Rainer Janßen, CIO der Munich Re zusammen mit Moderatorin Katrin Müller-Hohenstein auf der Bühne.
CIO der Dekade
Gewinner der Kategorie "Internationale Ausrichtung": Guus Dekkers (links), CIO bei EADS und Patrick Naef, CIO von Emirates.
CIO der Dekade
Gewinner in der Kategorie "Strahlkraft in die Gesellschaft": Lufthansa-CIO Thomas Endres (links) neben Johannes Pruchnow, Managing Director Business bei Telefónica.
CIO der Dekade
Alle anwesenden Preisträger.

Der häufigste Irrglaube besteht darin, dass durch die einfache Virtualisierung bestehender Windows-PCs bereits ein deutlicher Mehrwert erzielt würde. Zu unterschiedlich sind die Anforderungen an den einzelnen Arbeitsplätzen, als dass sich hier mit einer universellen Virtualisierungsebene Einspareffekte erreichen ließen.

Details: Beim Aufbau einer VDI-Lösung müssen wichtige Parameter beachtet werden.
Foto: Materna GmbH

Zu Beginn steht daher die umfassende Analyse, wie die eigene IT-Landschaft genutzt wird. Zu untersuchen sind beispielsweise Anwendergruppen und ihre Anforderungen, die zu virtualisierenden Applikationen, die bestehenden Betriebssysteme und Endgeräte sowie die benötigten Bandbreiten, Netz- und Speicherkapazitäten. Daraus abgeleitet ergeben sich die Sicherheitsanforderungen, die benötigten Übertragungsprotokolle und Zugriffsmöglichkeiten sowie die Auswahl der einzusetzenden Techniken und Produkte wie Hypervisor. So ausgerüstet, lassen sich Abläufe, Prozesse und Geräte sinnvoll standardisieren, virtualisieren und automatisieren.

Auch das organisatorische Umfeld ist zu betrachten, da gerade in großen Unternehmen verschiedene Ansprechpartner für unterschiedliche Komponenten verantwortlich sind. Für die Desktop-Virtualisierung sind Prozesse jedoch abteilungsübergreifend zu harmonisieren.

Tipp 1: Sanfte Migration oder harter Wechsel?

Die Gründe zur Virtualisierung von Desktops sind vielfältig. Häufig ist gleichzeitig die Migration auf ein neues Betriebssystem geplant, oder es sollen veraltete Hardwarekomponenten ausgetauscht werden. Ein weiterer Treiber ist der Wunsch nach einer Harmonisierung der Applikationslandschaft, beispielsweise um Lizenzkosten zu sparen.

Eine geplante Windows-7-Migration kann die Virtualisierung beschleunigen. Hier hat sich ein Parallelbetrieb bewährt: Der neue virtuelle Desktop mit Windows 7 steht schon bereit, dennoch kann der Anwender in einer Übergangsphase noch auf den alten PC mit bisherigem Betriebssystem zurückgreifen. Applikationen sind in diesem Szenario lokal oder teilweise auf einem Terminal-Server gehostet verfügbar. Zusätzlich erhalten die Anwender einen virtuellen Desktop, den sie auf ihrem vorhandenen PCs einsetzen können. Mit einem solchen Parallelbetrieb kann ein Benutzerkreis bereits Erfahrungen sammeln und testen, ob die bestehenden Anwendungen mit den gewählten Konfigurationen wie gewünscht in der virtualisierten Umgebung arbeiten.

Aufwendiger wird der komplette Umstieg auf virtuelle Desktops. Hier sollte der Status der gesamten Infrastruktur bereits sehr detailliert bekannt sein, zum Beispiel die benutzten Anwendungen und in welchen Versionen und Abteilungen diese im Einsatz sind.

Bei Projektstart wird der virtuelle Desktop genau spezifiziert: von der Betriebssystemkonfiguration über Einstellungen und Benutzerdaten bis zu den eingesetzten Softwareapplikationen sowie dem Benutzerstamm. Die Techniken zur Bereitstellung können je nach Anforderung kombiniert werden und umfassen die lokale Installation auf dem PC, die Applikationsbereitstellung über Terminal-Server, Terminal-gehostete Applikationen und virtuelle Desktops. Entscheidend für den Erfolg ist es, die gesamte Client-Infrastruktur zu standardisieren und ein Konzept zu finden, das die verschiedenen Bereitstellungsformen integriert. Letztlich bezeichnet die Desktop-Virtualisierung nur eine weitere Möglichkeit, dem Anwender eine Arbeitsplatzumgebung bereitzustellen. Die gewohnten Herausforderungen in der Client-Administration bleiben erhalten.

Tipp 2: Client-Verwaltung nicht direkt übertragen

Die Client-Verwaltung umfasst auch weiterhin Aufgaben wie Benutzer- und Rechteverwaltung, Softwareverteilung, Patch-Management und Client-Security, wird jedoch um eine zusätzliche Administrationsschicht erweitert. Um daher tatsächlich einen Mehrwert zu erzielen, ist das Grundkonzept der IT-Bereitstellung zu ändern: Eine direkte Nachbildung der Client-Infrastruktur ist nicht zielführend.

Betreibt ein Unternehmen beispielsweise verschiedene IT-Abteilungen mit jeweils individuellen Verzeichnisdiensten und E-Mail-Servern, sind zunächst die Infrastrukturdienste zu zentralisieren. Durch eine Analyse wird anschließend festgestellt, welche Applikationen in welchen Fachabteilungen tatsächlich im Einsatz sind, um so einen Standard für die Bereitstellung von Software abzuleiten. In einer späteren Phase lassen sich die Softwarekomponenten effizient über ein Self-Service-Portal bereitstellen. Hier können sich Anwender zusätzlich zu den Standardanwendungen weitere Werkzeuge herunterladen, deren Konfigurationen die IT überwacht. All diese Überlegungen werden weit vor der Entscheidung für eine Virtualisierungstechnik getroffen.

Tipp 3: Benutzergruppen und Anwendungen festlegen

Einer der wesentlichen Unterschiede zwischen der Desktop- und der Server-Virtualisierung liegt in der Betrachtung von Benutzergruppen. Während sich der Ressourcenverbrauch von Servern durch Monitoring-Werkzeuge gut einschätzen lässt, ist dies beim Endanwender deutlich komplexer und deshalb schwieriger zu messen. Es ist jedoch möglich, Benutzer mit vergleichbarem Verhalten zu identifizieren. Diese erhalten dann die für sie jeweils passenden standardisierten Arbeitsumgebungen.

Im nächsten Schritt werden die Anwendungen definiert und in standardisierten Versionen bereitgestellt. Hier ergeben sich eine Reihe von weiteren Detailfragen: Sollen Applikationen wie bisher nutzbar sein oder ist der Zugriff beispielsweise über einen Terminal-Server möglich? Lassen sich durch einen Concurrent-User-Zugriff die Lizenzkosten senken? Im klassischen Fall werden Anwendungen in Softwarepaketen auf die virtuellen Maschinen oder auf die Benutzer-PCs verteilt. Eventuell müssen auch selbst programmierte Applikationen paketiert und in die virtuelle Welt übertragen werden. In jedem Fall ist bei der Desktop-Virtualisierung die Kompatibilität von Softwareanwendungen vorher gründlich zu prüfen.

Welche Lösungswege geeignet und in der eigenen Infrastruktur funktionsfähig sind, zeigen nur umfangreiche Tests der verschiedenen Varianten. Die Virtualisierung bietet verschiedenste Umsetzungsmöglichkeiten: rein virtuelle Maschinen, Terminal-Server, Terminal-Desktops, physikalische Maschinen mit entsprechendem Zugriffs-Client und Basis-Images für die gleichzeitige Bereitstellung an mehrere Benutzer. Unternehmen müssen anhand der bereits genannten Voraussetzungen und Anforderungen individuell analysieren, welche Lösung für welche Bereiche geeignet ist.

Tipp 4: Mit welchen Endgeräten arbeiten die Anwender?

Kaum ein Unternehmen wird im Rahmen eines Virtualisierungsprojekts sämtliche vorhandenen Arbeitsplatz-PCs durch einheitliche Thin Clients ersetzen wollen. Wirtschaftlicher ist ein Migrationspfad, bei dem neue Thin Clients die alte Hardware ablösen. Alternativ können virtuelle Desktops parallel zum vorhandenen Rechner zum Einsatz kommen, oder es wird ein vorhandener PC als Thin-Client-Ersatz genutzt.

Achtung: Ohne Hardwarestandardisierung führt die Integration verschiedener Endgeräte zu einem erhöhten Administrationsaufwand.
Foto: Materna

Sollen sich die Anwender auch von unterwegs mit dem Notebook, Smartphone oder Tablet-PC einwählen können, kommen weitere Anforderungen an die Sicherheit, die Infrastruktur sowie das Management der mobilen Geräte hinzu. Je mehr iPhones, iPads oder Notebooks in die Infrastruktur einzubinden sind, desto aufwendiger wird die Administration der Gesamtlandschaft. Daher führt auch bei den Hardwarekomponenten kein Weg an einer Standardisierung von Geräten, Konfigurationen, Zugriffsmöglichkeiten, Authentifizierung und Verschlüsselung vorbei.

Tipp 5: Je mehr Sicherheit, desto komplexer

Erfolgt der Zugriff auf die virtuellen Desktops nur über das LAN, greifen die gängigen Sicherheitsmechanismen wie Firewall und Content-Filter. Sobald die Infrastruktur nach außen sichtbar wird, benötigt die IT weitere Sicherheitsstufen, beispielsweise Token, Fingerabdruck-Scanner und Smartcard zur Identifizierung. Wichtig ist zu klären, ob auch die Endgeräte diese Verfahren unterstützen und sich diese Mechanismen in die Infrastruktur integrieren lassen. Auch hier gilt: Je mehr Sicherheit geschaltet wird, desto komplexer wird das Management der Infrastruktur.

Virenscanner sind in virtuellen Infrastrukturen ein heikles Thema. Sie produzieren eine hohe zusätzliche Last und können damit die Performance negativ beeinflussen. Werden die virtuellen Clients in einem gesicherten Rechenzentrum betrieben, kann unter Umständen auf einen Virenscanner verzichtet werden. In diesem Fall muss jedoch das Rechenzentrum entsprechend gesichert sein, sodass im Ernstfall die virtuellen Maschinen über ein sauberes Basis-Image neu aufgesetzt werden können.

Tipp 6: Speicherplatz bemessen

In den Anfängen der Desktop-Virtualisierung wurden Eins-zu-eins-Kopien der physischen Maschinen als virtuelle Abbilder im Plattenspeicher vorgehalten. Das verbrauchte zu viele Ressourcen und war damit zu teuer. Das Kapazitätsproblem hat sich mittlerweile entschärft. Die Hersteller haben ihre Produkte um Technologien ergänzt, die es ermöglichen, von einem Basis-Image mehrere virtuelle Desktops zur Verfügung zu stellen.

Studie zur Desktop-Virtualisierung
Studie zur Desktop-Virtualisierung
Fat Clients sind teuer. Eine PAC-Studie belegt, dass Firmen für mehr Effizienz und Mobilität zunehmend zu virtuellen Desktops tendieren.
Einsatz von PC-Management
Etwa ein Viertel der mittelständischen Unternehmen in Deutschland setzt laut einer Studie von PAC ...
Einsatz von Desktop-Bereitstellung
... nach eigenen Angaben bereits Desktop-Virtualisierung ein. Nach den Erfahrungen von Providern wie ...
Einsatz von Anwendungs-Bereitstellung
... Pironet NDH sind es in der Praxis jedoch nur etwa 10 Prozent.
Erzielter Kosteneinsparungen durch VDI
Ein positiver Effekt von Desktop-Virtualisierung: Die IT-Kosten im Vergleich zu dezentral vorgehaltenen Arbeitsplatzumgebungen sind niedriger.
Erfahrungen beim Einsatz virtualisierter Desktop-Bereitstellung
Mittelständler, die virtualisierte Desktops einsetzen, sind mit den Ergebnissen hoch zufrieden. Neben der größeren Flexibilität der Mitarbeiter schätzen sie die höhere Verfügbarkeit und Vorteile bezüglich der Einhaltung von Compliance-Richtlinien.

So reicht es beispielsweise aus, für jede Benutzergruppe nur noch ein Basis-Image zu erstellen und zu pflegen. Von diesem Image werden im laufenden Betrieb individuelle Instanzen für die jeweiligen Benutzer erstellt und nur noch die Deltas zum Basis-Image gespeichert.

Hier ist genau zu analysieren, welche Benutzer mit welchen Applikationen und auf welchem Betriebssystem arbeiten und welche Auswirkungen dies auf die Plattenkapazität hat, um den Speicher entsprechend zu bemessen.

Tipp 7: Bandbreite für schnelle Übertragungsprotokolle

Bei der Bereitstellung virtueller Windows-PCs sind Citrix mit dem ICA-Protokoll und HDX sowie VMware mit RDP beziehungsweise dem PC-over-IP-Protokoll weit verbreitet. Inzwischen unterstützen diese Protokolle auch datendurchsatzstarke Anwendungen für Multimedia-, 3-D- und CAD-Anwendungen. Auch das Drucken wurde optimiert.

Die Protokollauswahl richtet sich nach den Anforderungen der Benutzergruppen und den bereitzustellenden Anwendungen. Die Abschätzung der Bandbreiten orientiert sich vor allem an den Benutzergruppen. Die Übertragungskapazität wird durchgängig bis ins Rechenzentrum auf die virtuelle Maschine benötigt. Was im LAN meist kein Problem darstellt, kann bei der Bereitstellung über das WAN bedeuten, dass eine leistungsfähigere Internetanbindung vorhanden sein muss. Es kommt auch hier auf die Standardisierung der Benutzergruppen an, um die benötigte Bandbreite in Abhängigkeit vom Benutzerverhalten abzuschätzen.

Tipp 8: Strukturen und Prozesse automatisieren

Ob Storage, Server, Netz, Applikationen, Systeme oder Support, die Desktop-Virtualisierung betrifft alle Bereiche der IT. Prozesse aus unterschiedlichen Abteilungen sind zu integrieren, und Anforderungen von Mitarbeitern aus verschiedenen Fachabteilungen wollen berücksichtigt werden. Jedoch sollte ein solches Projekt nicht in einem Wunschkonzert der Anwender enden.

Wichtig: Die Desktop-Virtualisierung erfordert die schrittweise Integration der Prozesse aller Fachabteilungen.
Foto: Materna

Es ist ein erprobter Lösungsweg, zunächst nur zentrale Komponenten zu standardisieren und anschließend die entworfenen Prozesse zu automatisieren. Aus den definierten Standards entstehen schließlich IT-Dienste, die über einen Servicekatalog im Intranetportal angeboten werden. Diese Leistungen können Kunden oder Mitarbeiter direkt aktivieren und erhalten so neue IT-Ressourcen auf Mausklick. (hal)

Dieser Artikel basiert auf einem Beitrag unserer Schwesterpublikation Computerwoche.