Standard Operating Environment

Mit Linux und Open Source in die Cloud

04.07.2014 von Malcolm Herbert
Die heutige Enterprise-IT-Infrastruktur ist geprägt von proprietären Lösungen, die zu einer hohen Herstellerabhängigkeit führen. Die Cloud-Nutzung bietet Unternehmen eine Lösung des Problems.

Mit Migrationen in Cloud-Umgebungen, die auf Linux und Open Source basieren, können sowohl eine höhere Herstellerunabhängigkeit als auch eine hohe Standardisierung realisiert werden, und das nicht nur im Hinblick auf die Technologie, sondern auch was die Prozesse betrifft.

Linux und Open Source-Software haben die Art und Weise, in der wir über IT-Infrastruktur denken, komplett verändert und auch den IT-Betrieb von Grund auf modifiziert. 1996, noch bevor es eine Enterprise-Distribution von Linux gab, haben IT-Manager das Betriebssystem bereits genutzt, weil es einfach einzurichten und zu verwalten war.

Dennoch gab es bei der Linux-Einführung früher vielfach Widerstände, besonders bei Risikovorbehalten, da der viel zitierte Satz "Es ist noch niemand gefeuert worden, weil er IBM gekauft hat" auch auf andere hochpreisige IT-Produkte angewendet wurde. Verantwortliche davon zu überzeugen, dass Linux und Open-Source-Software die besten Lösungen für Web-Services sind, nahm etliche Zeit in Anspruch. Marktkräfte haben ebenso wie vorkonfigurierte skalierbare Lösungen dazu beigetragen, dass Open Source ein Mainstream-Thema geworden ist.

Die zehn wichtigsten IT-Trends -
Trends 2014
Natürlich zählen Cloud, Mobility und Big Data zu den wesentlichen Trends 2014. Die Experton Group hat darüber hinaus sieben weitere Themen identifiziert, die IT-Organisationen im Blick behalten sollten.
Mobile Workspace und Apps
Seit Jahren ist Mobilität der treibende Faktor für Veränderungen im Arbeitsumfeld und für die IT-Organisation. Über mobile Arbeitsgeräte wie Laptops bis hin zu den Smartphones und Tablets, sind Themen wie Bring your own Device (BYOD) zu Schlagwörtern geworden. <br><br>2014 ist es notwendig, nicht mehr den Arbeitsplatz sondern die Arbeitsumgebung in den Fokus zu rücken, also vom Workplace zum Workspace. Die Mobile Apps gewinnen damit an Bedeutung. Voraussetzung für den Wandel sind eine passende Entwicklungsumgebung, die Unterstützung mehrerer Betriebssysteme, der Zugriff auf Enterprise Daten und Sicherheitsaspekte. Ohne professionellem Mobile Device Management und Service-Partnern sind diese Punkte kaum zu bewerkstelligen.
Cloud Computing
Das Hype-Thema Cloud verschwindet nicht einfach wieder, sondern stellt die neue IT-Architektur des Jahrzehntes dar. Die IT-Organisation versuchen mit hybriden Cloud-Modellen das Konzept unter Kontrolle zu bringen, andere schieben Sicherheitsbedenken vor um de Trend abzuwenden. <br><br> Doch für Anwender aus Leitungsebenen und Fachbereichen ist das Angebot genau das, was sie immer schon wollten – IT aus der Steckdose. Damit obliegt der IT-Organisation die Herausforderung, die IT-Infrastruktur - und hier insbesondere die Server- und Speichersysteme – in eine IaaS-Umgebung zu überführen, also zu „cloudifizieren“.
Dynamic Infrastructure
Von der internen Cloud-Installation führt der Weg direkt in eine Dynamic Infrastructure. Sie umfasst vorhandene Rechenzentren und beachtet zukünftigen Anforderungen, die etwa im Zug von Big-Data-Projekten sowie von intelligenten Produkten und Services entstehen können. Ziel ist es, für die nächste fünf bis 15 Jahre eine RZ-Strategie mit größtmöglicher Flexibilität zu erarbeiten, die unterschiedlichsten Anforderungen standhält. <br><br> Dabei stellt sich natürlich die Frage, ob und wie viele eigene Rechenzentren noch gebraucht werden? Oft wird diese Antwort „strategisch“ entschieden, sprich emotional. Aber auch das lässt sich sehr gut mit einer zukünftigen Dynamischen-Infrastruktur-Strategie vereinbaren. Hybride Clouds und zumindest ein eigenes RZ werden bis 2020 die dominierenden Lösungen sein.
Social Business
Viele Unternehmen stehen dem ausufernden E-Mail-Verkehr hilflos und frustriert gegenüber und suchen neue Lösungen. Bei Social Business geht es nicht darum, bekannte Social-Media-Anwendungen (Facebook etc.) zu nutzen, sondern deren Prinzipien wie zum Beispiel Collaborative Writing, File Sharing, Blogs, Activity Streams, Wikis und Microblogging im Unternehmen anzuwenden. Größtes Hindernis für die Einführung ist aus Sicht der IT, dass kein Bedarf existiert. Die Fachabteilungen hingegen geben als Hauptgrund die Ablehnung durch die IT-Abteilung an.
Big Data
Big Data ist eine unweigerliche Entwicklung, weil Informations- und Kommunikationstechnologien schon jetzt fast alle Lebens- und Geschäftsbereiche durchdrungen haben. Für Datenmengen, die bei großen Unternehmen künftig leicht Terabytes und Petabytes umfassen können, sind neue Verfahren, Algorithmen und Geschäftsprozesse hinsichtlich der Verwaltung, Verarbeitung, Analyse und Verteilung erforderlich. <br><br>So lassen sich Mehrwerte aus Informationen in einer heute nicht immer vorstellbaren Art und Weise gewinnen. Big Data erweitert klassische Business-Analytics-Anwendungen. Die Zahl der an Datenquellen wird deutlich zulegen. Gleiches gilt für interne und externe Datennutzer und Verarbeitungsgeschwindigkeit.
Identity Management und Cybersecurity
Die Vernetzung via Internet hat den Bedarf nach bewusster Anonymität verstärkt. Der verantwortungsvolle mit der eigenen digitalen Identität gestaltet sich komplex. In Unternehmen ist daher ein Identity-Management mit Schnittstellen zum Access Management sinnvoll. Damit lassen sich Zugriffsrechte verwaltet, Single-Sign-On-Konzepte (SSO) umsetzen und Security-Policies verwalten. <br><br> Die Anforderungen an die Cybersecurity im Unternehmen sind Bestandteil eines alles umfassenden Risiko-Managements. Zu den Aufgaben zählen etwa Risiken identifizieren und bewerten, Richtlinien zu verfassen und zu kontrollieren, Berichtswege etablieren, die Risikosteuerung umzusetzen sowie die Gefahrenlage im Geschäftsbericht zu beschreiben.
ERP, CRM, SCM of the Future
Die ERP-Systeme in den meisten Unternehmen ranken sich um SAP-Lösungen. Ob eine ERP-zentrische Applikationswelt für nicht produzierende Unternehmen die richtige Architektur ist, oder vielleicht das CRM – sprich der Kunde – im Mittelpunkt stehen sollte, bleibt dahingestellt. <br><br> In der Zukunft wird es darum gehen, das vernetzte Chaos zu orchestrieren. Die Flexibilisierung der Alt-Systeme mit neuester S-BPM-Methoden (Subjektorientiertes Business Process Management), steht bei vielen Unternehmen auf der Wunschliste. Erst dadurch wird eine schnelle und individuelle Prozessänderung zu günstigen Kosten ermöglicht. <br><br> Das ist wichtig weil der Kostendruck weiter steigen wird. Bislang beliefen sich die ERP-Kosten auf durchschnittlich rund ein Prozent vom Gesamtumsatz. Künftig sollten sich die gemittelten Wert laut Experton-Empfehlung zunächst auf unter 0.8 Prozent und spätestens bis 2017 auf weniger als 0,5 Prozent reduzieren. Damit werden Finanzmittel frei, die sich in innovative Projekte investieren lassen.
Software as a Service (SaaS)
SaaS ist ein besonders beachtenswerter Trend, weil er von den Fachabteilungen vorangetrieben wird. Während sich ihr Bedarf an Computing-Power aus öffentlichen IaaS-Plattformen zumeist auf wenige, sehr spezielle Anwendungen etwa für Rendering beschränkt, ist die Nachfrage nach Applikationen aus der Cloud gewaltig.<br><br><br>SaaS erfüllt den schon immer vorhandenen Wunsch, Anwendungen schnell und frei von Beschaffungsbedenken der IT-Organisation nutzen zu können. <br><br> Aber der IT-Organisation ermöglichen SaaS-Lösungen komfortable Wege. Sie erleichtern beispielsweise einen internationale Rollout von Applikationen.
Consumerization
Spätestens mit der Einführung des iPhones hielt die IT Einzug in Massenmarkt. Den Anbietern eröffnen sich damit völlig neue Dimensionen. Statt tausende von Unternehmen als Kunden zu gewinnen, geht es nun darum, Milliarden von Nutzern weltweit zu erreichen. Über das Privatkundengeschäft dringen mobile Geräte und Anwendungen in die Unternehmen vor und verändern sowohl die interne IT, als auch das ITK-Geschäft nachhaltig. <br><br> Als Beispiel seien die häufig in Smartphones verbauten ARM-Prozessoren (Advanced RISC Machine) genannt: Sie sind heute auch schon in hoch-performanten, massiv parallelen Server-Systemen zu finden. Das Wettbewerbsumfeld verändert sich demnach, ausgelöst durch Erfolge im Privatkundengeschäft. <br><br> Im Unternehmens-internen Umfeld steigen die Ansprüche. Die privat angeschafften IT-Geräte und Anwendungen übertreffen oftmals die Unternehmens-IT in Sachen Komfort, Innovation, Mobilität und Multi-Media. Zudem sind sie auch noch günstiger. Dieser Entwicklung muss sich die IT-Organisation stellen.
Digitalization - IT als Produkt
Die Digitalisierung unseres täglichen Lebens und der Arbeitswelt schreitet unaufhörlich voran. Verbreitung und Durchdringung haben bereits nie gekannte Höhen erklommen, und das Ende ist nicht absehbar. M2M-Anwendungen (Maschine-zu-Maschine) steht in den Startlöchern. Intelligente Werkzeuge, Maschinen und Dienstleistungen schaffen eine Basis dafür, sich gegenüber Wettbewerbern zu differenzieren.

Viele Early Adopter von Linux in den Unternehmen sind die gleichen Personen, die sich zwischen 2002 und 2007 für den Einsatz von Open-Source- und Standard-Hardware entschieden haben. Unternehmen, die diesen Weg einschlugen, konnten signifikante Einsparungen und Performance-Steigerungen realisieren. Sie können als Pioniere im Bereich Enterprise Open Source angesehen werden, die auf eine neue Umgebung migriert und es verstanden haben, eine zuvor hauptsächlich Community-basierte Lösung in einem kommerziellen Umfeld zu nutzen. Sie mussten anfangs höhere Investitionen in Kauf nehmen, sowohl im Hinblick auf die Akquisition von Mitarbeitern sowie die Umsetzung neuer Prozesse und Policies als auch hinsichtlich der reinen Technologie. Allerdings haben die in der Zwischenzeit erzielten Vorteile das mehr als wettgemacht.

Mit standardisierten Betriebsumgebungen in die Cloud

Linux und Open Source bieten im Vergleich zu Legacy-Unix- oder Windows-Umgebungen Vorteile, was die Hardware und die Lizenz- und Subskriptionskosten betrifft. Zu nennen sind auch die Standardisierung und das IT-Management, denn viele Unternehmen setzen Open-Source-basierte Systemmanagement-Tools wie Red Hat Network, Puppet oder Cobbler ein.

Zudem begünstigt Open Source auch die Einführung einer standardisierten Betriebsumgebung (Standard Operating Environment), die ein fundamentaler Teil jeder zeitgemäßen Rechenzentrumsstrategie sein sollte. Eine Standard Operating Environment (SOE) hilft bei der Bewältigung der IT-Komplexität, die unvermeidlich steigt, wenn die Konfigurationsvielfalt zunimmt und Einmalkonfigurationen sowie Silosysteme sich vervielfachen. Wenn die Anzahl der eingesetzten Plattformen wächst, lohnt es sich, Zeit und Anstrengung in das Review vorhandener Systeme zu investieren und eine Migration zu einer Standard Operating Environment zu planen.

Dabei ist zu beachten, dass Unternehmen bei einer facettenreichen Migration, die Aspekte wie Betriebssystem, virtuelle Infrastruktur und Applikationen umfasst, auch die strategische Kontrolle über ihre neue SOE behalten müssen. Sie können das sicherstellen, indem sie diese konzipieren, bevor sie die vorhandene Infrastruktur migrieren.

Generell bietet eine SOE eine Sammlung lose verknüpfter, aber funktionaler Tools und Prozesse, mit denen die IT-Infrastruktur verwaltet werden kann. Mit der geeigneten SOE und der Standardisierung von Plattformen und Prozessen kann ein Unternehmen in einer sicheren Art und Weise Cloud-ready gemacht werden. Nach Ansicht von Experten hat es keinen Sinn, Zeit und Energie in den Transfer alter Lösungen und Prozesse in die Cloud zu investieren. Besser sind Standard Operating Environments, die Deployment, Updates und Konfigurationsmanagement so effizient wie möglich machen.

Von Unix auf Linux migrieren

Insgesamt betrachtet, so die Expertenmeinung, hat sich Linux sehr schnell etabliert. Deutlich zeigt das der Einsatz in traditionell eher konservativen Bereichen wie Banken, Versicherungen oder bei Retail-Unternehmen. Hier wurden zahlreiche Großprojekte mit der Ablösung alter Hardware und Softwarelösungen einschließlich Unix durchgeführt. Immer mehr Firmen haben sich mittlerweile von Unix verabschiedet. Das hat auch dazu geführt, dass die Unix-Anbieter die Preise erhöht haben, um ihre Profitabilität sicherzustellen. Der mit der Migration auf Linux verbundene Return on Investment ist hingegen hoch. Migration bietet Unternehmen die Möglichkeit, ihr Systemmanagement upzudaten und ein hochagiles Rechenzentrum aufzubauen.

Fahrplan für die Migration von Unix auf Linux -
Gängiges Szenario:
Die Migration einer externen Infrastruktur-Applikation, etwa zum Netzwerk-Backup, von UNIX auf eine vergleichbare Anwendung unter Linux.
Funktionale Anwendungen:
Die Migration einer funktionalen Business-Anwendung eines externen Anbieters kann einfach sein, wenn sie für Linux verfügbar und zertifiziert ist. Komplexer wird es bei proprietären funktionalen Anwendungen, die ein Unternehmen selbst entwickelt hat.
Konsolidierung:
Rechenvorgänge und Workloads, die bisher auf einer größeren Anzahl nicht komplett ausgelasteter UNIX-Systeme liefen, werden auf weniger x86-Systeme mit virtuellen Servern konsolidiert. Dieses Einsatzszenario ist typisch für Umgebungen, in denen Virtualisierung als strategisch wichtig angesehen wird.
Verteilung:
Workloads, die vorher auf einem großen UNIX-System liefen, werden auf mehrere kleinere x86-Systeme mit Linux verteilt. Damit lassen sich Hardware-Ressourcen auf kleinere Einheiten über mehrere Rechenzentren verteilen und skalieren. In diesem Szenario spielen Blades eine wichtige Rolle.
Ab in die Cloud:
Die Arbeitslast der bestehenden UNIX-Systeme wird auf Linux-Systeme übertragen, die in einer Cloud-Umgebung laufen. Das kann eine interne Private Cloud oder eine Public Cloud sein.

Der Einsatz neuer, teilweiser wenig erprobter Technologien vor den Wettbewerbern kann einem Unternehmen einen entscheidenden Vorteil verschaffen, aber dies ist auch nicht völlig risikolos. Auf mehr Sicherheit können Unternehmen hoffen, die neu entwickelte Technologien erst verzögert einführen. Sie profitieren dann oft noch stärker, da die Technologien im Rahmen von ausführlichen Tests und auf Basis von Echteinsätzen weiter optimiert sind. Zudem stehen dann auch mehr erfahrene Open-Source-Experten zur Verfügung. All dies hilft, Service Levels weiter zu verbessern und Kosten zu senken.

Standards für die Cloud: OpenStack und OpenShift

In vielerlei Hinsicht sind neue Technologien heute Standard, und so gibt es auch Standardangebote für Open Hybrid Cloud Computing; OpenStack und OpenShift sind hier zwei Technologien, die die Einführung von Standards unterstützen, im Unterschied zur kostenintensiveren Implementierung anwenderspezifischer Lösungen. Eine Cloud-Lösung von der Stange ist für ein Unternehmen dabei stärker risikobehaftet als ein komponentenbasiertes Open-Source-Projekt wie OpenStack: Denn sie führt dazu, dass sich die Daten in proprietären Datenbanken befinden und Unternehmen von einem einzigen Hersteller abhängig werden. Der Hersteller ist Eigentümer der Roadmap, nicht der Kunde, und der Hersteller kontrolliert zudem die Preise.

Checkliste Cloud-SLAs -
Checkliste Cloud-SLAs
Um zu beurteilen, ob ein Cloud-Provider kundenfreundliche SLAs anbietet, lassen sich folgende Kriterien anlegen und überprüfen:
Punkt 1:
Kurze und klare Gestaltung von Inhalt, Struktur und Formulierung.
Punkt 2:
Version in der Landessprache des Kunden.
Punkt 3:
Klare Definitionen von Fach- und Produktbegriffen zu Beginn.
Punkt 4:
Detaillierte Ankündigung und Planung der Wartungsfenster (Beispiel: "Viermal im Jahr an vorangemeldeten Wochenenden").
Punkt 5:
Leistungsbeschreibung in Tabellenform (Übersicht!).
Punkt 6:
Klar definierte Bereitstellungszeiträume für neue Ressourcen (Beispiele: Bereitstellung virtueller Server bei Managed Cloud in maximal vier Stunden; Bereitstellung kompletter Umgebungen oder dedizierter Server in fünf bis zehn Tagen).
Punkt 7:
Bereitstellung von klar abgegrenzten Konfigurationsoptionen für Ressourcen (Beispiel: Konfiguration von Servern nach Gigahertz, Gigabyte).
Punkt 8:
Einfach unterscheidbare Service-Levels (Beispiel: Silber, Gold, Platin); Abgrenzungskriterien können sein: Verfügbarkeit, Bereitstellungszeiten, fest reservierte Kapazitäten ja/nein, Support-Level (Telefon, E-Mail).
Punkt 9:
Bei IaaS-Angeboten unbedingt auf Netzwerk-Konfigurationsmöglichkeiten und Bandbreite achten (Volumen? Im Preis inkludiert ja/nein?).
Punkt 10:
Kundenfreundlicher Reporting- beziehungsweise Gutschriftenprozess (am besten aktive Gutschriften auf Kundenkonto; kein bürokratischer, schriftlicher Prozess; möglichst einfache Beweis- und Nachweispflicht für Kunden).
Punkt 11:
Reaktionszeiten und Serviceverfügbarkeit klar beschreiben (zentrale Hotline; Reaktionszeiten auf Incidents in Stunden).
Punkt 12:
Nennung der Rechenzentrumsstandorte mit Adresse und sonstigen Informationen wie Zertifizierungen und Tier.
Punkt 13:
Definition der Verfügbarkeiten: Unterschiede hinsichtlich Verfügbarkeit Server/VM und Verfügbarkeit Admin-Konsole definieren.
Punkt 14:
Erläuterung zu Möglichkeiten der SLA-Überwachung beziehungsweise des Incident-Reportings für den Anwender (Beispiel: Link auf Monitoring-Dashboard).

Die Parallelen zwischen der Enterprise-Linux-Einführung vor 15 Jahren und der Nutzung von Virtualisierung und Cloud Computing heute sind klar. Unternehmen sollten das einführen, was Standard wird. Die Wahl des richtigen Anbieters, die Implementierung von Standardlösungen und eine Community-geführte Strategie sind dabei Erfolgsfaktoren. Durch die Zusammenarbeit mit einem vertrauenswürdigen Hersteller, der Consulting-Leistungen für OpenStack bietet, können alle unternehmensseitig benötigten Open-Source-Komponenten miteinander kombiniert werden.

Nicht zuletzt sollte auch unterstrichen werden, dass ein Unternehmen bei allen Projektdurchführungen die strategische Kontrolle über seine IT behalten muss. Eine Abtretung der Kontrolle kann zwar die einfachere Option sein, aber auch dazu führen, dass eine künftige erfolgreiche Umsetzung einer Cloud-Strategie verhindert wird. (hal)