Was versteht man unter Software Defined Environments (SDE)? Diese IT-Infrastruktur beinhaltet nicht nur virtualisierte Server, sondern umfasst auch den Speicher und die Netzwerkressourcen. Das Pooling, die hohe Automation und die Abstraktion werden durch einheitliche Schnittstellen (APIs) ermöglicht, so dass die gesamte Infrastruktur als "IT-as-a-Service" (IaaS) verfügbar ist.
Der Ruf der Geschäftsbereiche nach immer neuen, dynamischen Workloads kann nur mithilfe einer serviceorientierten IT umgesetzt werden. Neben Technologieaspekten geht es auch um eine Prozess- und um eine organisatorische Transformation. Zusammengefasst versteht man unter Software Defined Environments Folgendes:
von "Software" administrierte, abstrahierte und virtualisierte IT-Infrastruktur-Ressourcen;
Anwendungen, die die Infrastrukturanforderungen und dir optimale Konfiguration "definieren";
IT-Infrastruktur, die multiple "Environments" über die Rechenzentrumsgrenzen hinaus ermöglicht.
Für große Cloud-Provider wie Amazon oder IBM Softlayer bieten diese Technologiekonzepte die Basis für effizientes Management ihrer riesigen Rechenzentren. Nicht umsonst sind diese Provider in den Open-Source-Communities wie OpenDaylight oder OpenStack aktiv. Platform-as-a-Service-Anbieter (PaaS) wie Cloudfoundry, Heroku oder IBM Bluemix nutzen "Software-Defined"-Technologien, um Entwicklungsumgebungen für neue Anwendungen bereitzustellen.
Welchen Nutzen bietet Software Defined Environments?
Eine effiziente und flexible IT ermöglicht klare Kostenvorteile in Bezug auf TCO (Total Cost of Ownership). Sicherheitsoptimierungen durch bessere Governance und Compliance sowie Schnelligkeit und kürzere "Time to Market" sind weitere wichtige Nutzenaspekte.
Jede Branche hat wachsende und drängende Anforderungen an die IT. Auf neue Marktgegebenheiten muss schneller reagiert werden, sei es zum Beispiel der Ausbau der IT im Fahrzeug, Stichwort Connected Car, Car Sharing Ecosysteme und der heftige Konkurrenzdruck nicht nur in diesem Segment. Diese neuen Anforderungen lassen sich durch Technologien wie Big Data, Mobile, Social und eine dynamische, zugrunde liegende Infrastruktur erst umsetzen. Damit ergeben sich eine Reihe von Vorteilen:
Einfachere Integration von neuen "Front Office Systems of Engagement" mit traditionellen "Back Office"-Systemen, beispielsweise eine Flugbuchungs-App und deren Backend-Systeme;
agile Entwicklung neuer Anwendungen und neuer Arten von Interaktionen mit Kunden, Partnern und Mitarbeitern;
dynamische Skalierung, um all die neuen "Front Office"-Systeme bedienen zu können. Mobile Systeme und speziell das Internet der Dinge - Stichwort Industrie 4.0 - erfordern diese Skalierungsmöglichkeiten.
Analysetechniken müssen "on demand" integrierbar sein, um die wachsenden Datenmengen sinnvoll nutzen zu können. Analysetechniken ermöglichen auch die proaktive Optimierung der SDE-Infrastruktur;
Hybride Konzepte, unter Nutzung unterschiedlicher Anbieter, werden durch das SDE-Konzept einfacher realisierbar;
Fachbereich und Anwendungsentwicklung können somit neue Anwendungen schneller entwickeln und ausrollen, ohne sich um die darunterliegende Infrastruktur kümmern zu müssen.
Das hat natürlich Auswirkungen und Anforderungen an die zugrunde liegende Infrastruktur. Als Vergleich können beispielsweise die Hausnetz-Bussysteme oder generell das SmartHome-Thema dienen. Ohne eine flexible, programmierbare und über definierte APIs ansprechbare Infrastruktur werden sich neue, innovative Technologien nur schwer einführen lassen. Das "Internet of things" beziehungsweise Industrie 4.0 wird den Druck auf diese neue Art von Infrastrukturservice ebenfalls erhöhen.
Diese neuen Technologien, egal ob im Fahrzeug, im Hausnetz oder im Rechenzentrum, bedeuten auch zusätzliche Komplexität. Diese neue Komplexität oberhalb der Virtualisierungsebene kann nur mit höher integrierten, intelligenteren Ansätzen administriert werden. Diese Ansätze sollen im Folgenden erläutert werden.
Was können IT Anbieter in Bezug auf SDE heute bereits bieten?
Zunächst gibt es von den großen Anbietern recht ähnliche Architekturansätze, die zumeist auf offenen Standards wie Cloudfoundry und OpenStack basieren. Das vermeidet Abhängigkeit und bietet Flexibilität bei der Anbieterauswahl.
Auch wenn die Begriffe teilweise ein wenig unterschiedlich sind, geht es primär um die obere Ebene von Anwendungscharakteristika oder um die Workload-bezogene Definition mithilfe von Mustern. Diese Muster oder Patterns sind ein wichtiger Baustein für die Standardisierung und Portierbarkeit von Systemen. Aus Katalogen können vielfältige vorgefertigte Mustersysteme wiederverwendet werden. Diese definieren, wie die Anwendungstopologien aufgebaut werden, wie sie skalieren und wie sie administriert und optimiert werden können. Darüber hinaus sind Analysetechnologien wichtig, die die Infrastruktur kontinuierlich optimieren.
Da dies alles sehr anwendungsbezogen ist und man die Schnelligkeit nur über flexible Entwicklungsmethoden erreicht, ist an dieser Stelle auch das Thema DevOps zu erwähnen. Kurze Release-Zyklen sind nur mit DevOps-Technologien und -Tools möglich. Das Anwendungs-Deployment, die Konfiguration über mehrere Staging-Umgebungen hinweg, muss und kann optimiert werden.
Die darunterliegende Ebene der IT-Ressourcen, die sich auf Speicher, Netzwerk und Rechner beziehen, muss mithilfe von Orchestrierungs- und Management-Tools hoch automatisiert werden. Das Thema Automation ist nicht neu, aber in dieser geforderten Ende-zu-Ende-Qualität auf einer neuen Ebene zu sehen.
Software-Defined-Network-Controller (SDN) sind nur einer der wichtigen Bausteine. Ebenfalls von zentraler Bedeutung sind hier wieder offene Standards wie OpenDaylight oder Openstack für eine herstellerneutrale Umsetzung.
Eine intelligente Platzierung der Ressourcen aufgrund vielfältiger, unterschiedlicher Richtlinien ist zwingend notwendig. Hierbei kommen oftmals Technologien aus dem High Performance Computing (HPC) zum Einsatz.
Fazit: Wie stellt sich die Situation derzeit dar?
Unternehmen müssen auf Marktgegebenheiten schneller und flexibler reagieren. Die IT hat dafür neue Grundlagen zu schaffen und ist wichtiger denn je. Sie wird sich den neuen Herausforderungen stellen müssen, da diverse SaaS- und PaaS-Anbieter um die Gunst der Fachbereiche buhlen und sehr flexibel reagieren können.
Cloud-Technologien kommen mehr und mehr zum Einsatz, reichen alleine aber nicht aus. Daher ermöglicht ein Software-Defined-Ansatz den neuen Anwendungsszenarien, optimal die vorhandenen IT-Ressourcen zu nutzen, sowohl im traditionellen Rechenzentrum als auch in Cloud-Umgebungen. Dafür sind zudem moderne Management- und Orchestrierungs-Tools notwendig und verfügbar. Zusätzlich müssen Prozesse und Silo-Organisationen angepasst werden.
Im Software-Defined-Computing-Bereich sind die Standards wie OpenStack gesetzt. Im Netzwerkbereich ist noch nicht alles ausdiskutiert.
Sie können sich heute bereits mit Technologien wie OpenStack vertraut machen oder diverse End-to-End-Orchestrierungs-Tools testen. Darüber hinaus ist es notwendig, die Entwickler mithilfe verfügbarer DevOps-Lösungen enger mit dem Betrieb zu verbinden. In den meisten Fällen besteht die Möglichkeit, Systems-Management-SaaS-Lösungen genauso wie Cloudfoundry-PaaS-Lösungen vor der Integration in den Produktivbetrieb auszuprobieren. Der Aufwand dafür ist sehr überschaubar. (hal)