Cloud Computing, SDN, Mobile und Virtualisierung

Netzwerk der Zukunft: Das müssen Unternehmen beachten

11.04.2014 von Stefan Volmari
Technologien wie Cloud Computing, Analytics und Virtualisierung stellen besondere Anforderungen an die Netzwerkinfrastruktur hinsichtlich Bandbreite und Latenzzeiten. Wie aber machen Unternehmen ihr Netzwerk fit für diese Zukunft?

Es dürfte kaum noch Unternehmen geben, deren IT-Organisation sich nicht mit dem Gedanken an Virtualisierungs- und (Re-)Zentralisierungsprojekten befasst hat - nicht zuletzt deshalb, weil es zunehmend wirtschaftlich sinnvoll ist. Virtualisierung liefert heute immer häufiger die technische Basis für den Betrieb dynamischer Infrastrukturen und schafft beste Voraussetzungen für die Integration von Cloud Computing. Doch derartige Projekte gehen zwangsläufig immer auch mit einer deutlich größeren Abhängigkeit von der Netzwerkinfrastruktur einher. Folgende Schritte sind dabei unerlässlich:

Software Defined Networks
Die Flow-Tabelle steuert den Datenflusses. Verwaltet wird sie durch einen eigenständigen Controller.
Software Defined Networks
So sieht der Header eines OpenFlow-Datenpaktes aus.
Software Defined Networks
Das Programm WhatsUpGold liefert zahlreiche Informationen zum Netzwerk: So lassen sich zum Beispeil die Verursacher von Bandbreitenengpässen sehr leicht ermitteln.
Software Defined Networks
Auch Cisco unterstützt die OpenFlow Initiative.
Software Defined Networks
Ipswitch hat WhatUp bereits an die Überwachung von OpenFlow-Netzwerke angepasst.
Software Defined Networks
Die strukturierten Netzwerke werden abgeflacht. Jeder Knoten ist dabei über einen HOP zu erreichen.
Software Defined Networks
HP will mit FlexFabric die Netzwerke der Rechenzentren für die Cloud fit machen.
Software Defined Networks
Riverbeds virtuelle Appliance unterstützt Managed Service Provider beim Aufbau von SaaS-Diensten.

Konsolidierung und Optimierung

Um Risiken von vornherein zu vermeiden, ist es nötig, den Blick auf die gesamte Netzwerkinfrastruktur zu richten: vom Client über die LAN- oder WAN-Anbindung einschließlich der verwendeten Übertragungsprotokolle bis hin zur Serverseite. Dabei sind vor allem die kritischen Aspekte Hochverfügbarkeit, Performance, Latenz, Datenhaltung und Sicherheit zu berücksichtigen. Denn der Business-Nutzen einer virtuellen Umgebung hängt letztlich davon ab, ob Anwender jederzeit sowie - trotz der im WAN unvermeidlichen Latenzzeiten - schnell und problemlos auf ihre Desktops zugreifen können. Dieser Zugriff muss außerdem stets abgesichert erfolgen, wie auch die Informationssicherheit durch zentrale und Compliance-gerechte Datenhaltung gewährleistet sein sollte.

SDN Directions
Entwicklungstrends im Rechenzentrum: Laut IDC zählt SDN neben 100-Gigabit-Ethernet zu den Technologien, die das Data Center in den kommenden Jahren maßgeblich prägen werden.
Grafik SDN-Markt
Laut einer Studie von Plexxi, Lightspeed Venture und SDNCentral werden 2018 vorzugsweise Service Provider und Betreiber von Cloud-Computing-Rechenzentren SDN-Produkte kaufen.
SDN Funktion ONF
SDN trennt die Control- und Forwarding-Ebene, die in einem Switch eine Einheit sind. Die Steuerung (Control) übernimmt ein externer Controller.
Ciscos SDN Ansatz
Cisco sieht sein Open Network Environment als Gegenentwurf zu Software Defined Networking.
SDN OpenDaylight
Das OpenDaylight Project, ein Konsortium von Netzwerkfirmen, will neben OpenFlow auch andere Protokolle auf dem Service Abstraction Layer (SAL) verwenden.
SDN Adaption
Nach Einschätzung von HP etabliert sich SDN in etwa zwei Jahren.
SDN NFV
Network Functions Virtualization (NFV) will ein Problem beseitigen, das vor allem in Netzen von Service-Providern und Carriern vorherrscht: Es sind viele Spezial-Appliances vorhanden. NFV forciert dagegen die Implementierung von Netzwerkfunktionen auf Standard-Hardware.

Die genaue Betrachtung einer virtuellen Infrastruktur offenbart schnell einige Stellen, die aus Sicht des Endanwenders die Performance negativ beeinflussen könnte. Daraus ergeben sich ganz konkrete Ansatzpunkte für Optimierungseingriffe: Natürlich muss die CPU- und Grafikleistung des Endgeräts den Anforderungen an die geforderte Leistung und Darstellung entsprechen - unabhängig davon, ob es sich um einen Thin Client, einen Zero Client oder ein Smartphone handelt. Hier ist Software gefragt, die eine Applikation dynamisch an die Gegebenheiten auf Client-Seite anpasst. Auf der Serverseite wiederum muss die Dimensionierung gleichermaßen der CPU-Power und insbesondere des Arbeitsspeichers der Zahl der gehosteten Benutzerinstanzen entsprechen - und letztlich darf auch Storage dabei nie zum Engpass werden. Die serverseitige Virtualisierung ermöglicht hier eine mitunter signifikant höhere Auslastung der Hardware - sprich: mehr Serverinstanzen pro physische Maschine - und vor allem die dynamische Zuweisung dieser Ressourcen.

Heutige Virtualisierungslösungen wie etwa von Citrix bieten in der Regel ein umfassendes Portfolio von Werkzeugen und Methoden zur Optimierung von zentralisierten Umgebungen - sei es für die standortübergreifende Nutzung von Hosted Virtual Desktops, für schnelle Datenübertragungen in dezentralen Windows-Umgebungen oder für performante Web- und Cloud-Services. Diese Techniken greifen dabei im Idealfall nahtlos ineinander und bilden so eine durchgängige Optimierungsinfrastruktur.

Unterstützung mobiler Endgeräte

Da mit der Zahl der mobilen Benutzer heute auch die Zahl der Orte, Endgeräte und Netzwerke zunimmt, wird das Management des Remote-Zugriffs naturgemäß ebenfalls immer komplexer. Es genügt nicht, wenn die IT ihre Remote-Access-Strategie nur unter Administrations- und Sicherheitsaspekten überdenkt. Ebenso wichtig ist es, in allen Situationen einen beständig hohen Benutzerkomfort zu gewährleisten. Um so produktiv wie möglich zu sein, wollen Mitarbeiter jederzeit und überall mit den Endgeräten ihrer Wahl auf Daten zugreifen können - ohne jegliche Einschränkungen.

Eine mobile Strategie muss daher einige wichtige Aspekte immer miteinbeziehen. So sollte etwa ein zentraler Self-Service-Zugriff auf alle benötigten Apps und Daten standortunabhängig und mit einheitlicher Benutzeroberfläche auf allen Endgeräten realisiert werden. Dazu zählt auch die Möglichkeit des Zugriffs auf IT-Services über jede beliebige Netzwerkverbindung - ohne zusätzliche Komplexität für Benutzer und IT. Wichtig ist zudem die komfortable Bedienbarkeit von Windows-Anwendungen und -Desktops auf Touchscreen-Geräten - etwa durch angepasste und intuitive Gestensteuerung.

Diese Beispiele zeigen, dass der ausschließliche Fokus auf die Steuerung und Kontrolle mobiler Endgeräte mittels einer Mobile-Device-Management-Lösung allein oft nicht ausreicht. Die Umsetzung einer ganzheitlichen Mobility-Strategie erfordert heutzutage vielmehr den Einsatz einer vollwertigen Enterprise-Mobility-Management-Lösung. Diese sollte eine Vielzahl von Funktionen bieten, die vom Management der Endgeräte, Apps und Daten über das Monitoring der Mobilfunknutzung bis hin zum Support von Prozessen wie dem On-/Off-Boarding von Mitarbeitern oder deren Unterstützung beim Fernzugriff durch den Helpdesk reichen.

Cloud Briding von Cloud-Diensten und Anwendungen

Wer heute über eine Anpassung seiner Infrastruktur für künftige Herausforderungen nachdenkt, kann die Cloud dabei natürlich nicht außen vor lassen. Klar, einige Daten sind vermutlich noch auf lange Sicht im eigenen Rechenzentrum deutlich besser aufgehoben. Für unkritische Anwendungen oder solche, die eher selten gebraucht werden, bietet sich ein Cloud-Hybridmodell aber geradezu an. Sie lassen sich problemlos, parallel zum hausinternen Angebot, über Public-Cloud-Dienste von Drittanbietern beziehen - schnell, flexibel und nur bei Bedarf.

Um dennoch auf eine nahtlose Anbindung setzen zu können, ist das sogenannte Cloud Bridiging eine Lösung, die geeignet ist, externe Clouds an das eigene Rechenzentrum anzubinden. Die in der Cloud gehosteten Anwendungen fügen sich dabei perfekt in die bestehende Infrastruktur ein. Das Netzwerk des Cloud-Providers erscheint dann wie die natürliche Erweiterung des eigenen Rechenzentrums, sodass größere Änderungen bei der Anwendungskonfiguration überflüssig sind. Die ideale Lösung verbindet eine sichere und transparente Cloud-Anbindung gleich mit Funktionen zur WAN-Optimierung. Darüber hinaus sorgt die Verschlüsselung der Verbindung zwischen Unternehmen und Cloud Provider dafür, dass der Datentransfer über die gesamte Strecke gesichert ist. Unternehmen sind außerdem in der Lage, Rechenzentren über öffentliche und private Netzwerke miteinander zu verbinden, um wichtige Daten kostengünstig zu replizieren.

Software-defined Networks

Mit aktuellen Entwicklungen und Trends wie der "Consumerization" bewegt sich die IT weiter vom traditionellen Desktop weg. Immer mehr Unternehmen haben daher begonnen, zunehmend SDN-fähige Hardware in ihr bestehendes Netzwerk zu integrieren. Mit SDN, also Software-defined Networks, kann das Netzwerk deutlich einfacher verwaltet werden, indem einzelne Funktionen als virtuelle Services bereitgestellt werden.

Einen wesentlichen Anteil am erfolgreichen Einsatz von SDN haben Application Delivery Controller (ADCs): Sie sorgen für die Überwachung der Back-End-Dienste und die Verfügbarkeit von Applikations- und Webservern. Zudem bieten ADCs einen logischen, zentralen Kontrollpunkt für den Zugriff auf alle Dienste, die den Nutzern angeboten werden.

Heutige Lösungen sind für SDN vorbereitet und haben API-Schnittstellen, die programmgesteuerten Zugriff auf den ADC erlauben. Damit ermöglichen sie es, dass Anwendungen ihre Anforderungen stellen können und das Netzwerk diese mit Freigabe der entsprechenden Ressourcen erfüllen kann. Hohe Skalierung bedeutet in dem Fall, dass Netzwerkanforderungen als Teil des Anwendungsprofils mit jeder zugrunde liegenden Hardware definiert werden. Bei der Bereitstellung einer App sollte bekannt sein, welcher Netzwerkdienst benötigt wird und welche Auswirkungen die neue App auf Bandbreite und Netzwerkauslastung hat. Diese Anforderungen lassen sich optimalerweise in Richtlinien abbilden und dann auch auf Clouds ausweiten. (hal)