Das Data Center im Umbruch

Software-defined Storage schafft Flexibilität

06.03.2014 von Heiko Schrader
Die Entwicklung weg von proprietärer Hardware und hin zu offenen, softwaredefinierten Lösungen im Rechenzentrum hat mittlerweile auch die Speichersysteme erreicht. Unternehmen könnten damit ihre Storage-Systeme nicht nur effizienter, sondern auch flexibler nutzen.

Das softwaredefinierte Rechenzentrum ist in vielen Firmen längst angekommen, zumindest was die Serverinfrastruktur betrifft. Zu verdanken ist dies dem Siegeszug der Virtualisierung. Speichersysteme aber sind das fehlende Puzzleteil wenn es darum geht, die Vision vom softwaredefinierten Rechenzentrum wirklich vollständig umzusetzen. Gemeint ist damit, die komplette RZ-Infrastruktur zu virtualisieren und als Service anzubieten, also vom Server über das Netzwerk bis hin zu den Speichersystemen. Die Kontrolle eines solchen Rechenzentrums erfolgt vollständig automatisiert mittels Software. Unternehmen können also Standardhardware einsetzen und mit Software Flexibilität und Skalierbarkeit erzielen. Dadurch erhalten sie eine schlankere Infrastruktur, die aber gleichzeitig besser auf Veränderungen reagieren kann und sich einfach neuen Anforderungen anpassen lässt, wie sie etwa neue Open-Source-Datenbanken oder auch Analytics-Anwendungen im Rahmen von Big-Data-Projekten stellen.

Software-defined Storage abstrahiert die logische Datenspeicherung von der zugrunde liegenden Hardware.
Foto: Fusion-io

Software-defined Storage (SDS) hat sich in jüngster Zeit beinahe zu einem neuen Buzz-Word entwickelt. Doch eine allgemeingültige Definition gibt es für diese Alternative zu hardwaredefinierter Speicherinfrastruktur bis jetzt nicht. Vielmehr beschreibt der Begriff eine Reihe von Fähigkeiten, die über offene Programmierschnittstellen verfügbar gemacht werden. Gegenwärtig ist es den Anbietern auf dem Speichermarkt überlassen, was sie als softwaredefinierte Speicherlösungen verkaufen; viele fokussieren sich auf ihr eigenes Produktportfolio und weniger darauf, Industriestandards zu schaffen.

Was ist eigentlich Software-defined Storage (SDS)?

Neue Technologien für neue Herausforderungen

Für eine Speicherinfrastruktur gilt im Grunde das Gleiche wie für den Rest des Rechenzentrums: Proprietäre Lösungen mit eigenentwickelter Hardware, geschlossenen Betriebssystemen und Designphilosophien, denen Zentralisierung wichtiger ist als Leistung, sind aufwendig im Unterhalt. Zudem sind Erweiterungen kostspielig und in ihrer Leistungsfähigkeit limitiert. Das bekommen Unternehmen immer deutlicher zu spüren.

Die technischen Entwicklungen der vergangenen Jahre, darunter die Verbreitung mobiler Geräte, der Siegeszug sozialer Netzwerke und Dienste und das Cloud Computing, haben zu einer wahren Datenexplosion geführt. Das hat auch die Aufgabe der Speichersysteme verändert. Rechenzentren sammeln Daten nicht mehr nur, um sie zu archivieren. Der Wert vieler Daten definiert sich vielmehr darüber, welche Erkenntnisse sich daraus gewinnen lassen, mit denen wiederum der Unternehmenserfolg beeinflusst werden kann.

Herkömmliche festplattenbasierte Speichersysteme werden diesen Herausforderungen kaum gerecht. Sie können auch nicht mit dem Datenhunger der neuesten Generationen von Mehrkern-Server-Prozessoren mithalten. Auch die neue Flash-Speichertechnologie brachte so lange nicht die erhoffte Leistung, wie man sie wie traditionelle, wenn auch sehr schnelle Festplattenspeicher behandelte - wie manch alteingesessener Speicherhersteller es tat. Denn "alte" Protokolle wie SAS und SATA werden dann rasch zu Flaschenhälsen und bremsen Flash-Speicher dabei aus, Daten an die Applikation zu liefern.

In softwaredefinierten Speicherinfrastrukturen lassen sich auch Flash-Speicher integrieren, die für die intelligente I/O-Verteilung zwischen Server und SAN sorgen sollen.
Foto: Fusion-io

Das änderte sich erst, als Flash wie Arbeitsspeicher behandelt wurde. Junge Unternehmen wie Fusion-io entwickelten einen Formfaktor, der das neue Speichermedium über die PCI-Express-Schnittstelle direkt an die CPU anbindet. Dazu schrieben sie Software, mit der sich die Latenz verursachenden Protokolle der Festplatten-Ära umgehen ließen. Diese neuartigen Speichersysteme sind den aktuellen Herausausforderungen bezüglich Skalierbarkeit und Leistung in virtualisierten und Cloud-Umgebungen gewachsen. Sie liefern große Datenmengen schnell und ohne Umwege an Prozessoren, die nun auch endlich ihre Leistungsfähigkeit unter Beweis stellen können. Sie bedienen Applikationen, die auf niedrige Latenzzeiten angewiesen sind, und stellen die Daten in virtuellen Umgebungen so schnell bereit, dass Anwender produktiv und ohne Verzögerung arbeiten können. Flash sorgt für die intelligente Verteilung von I/O zwischen Server und SAN. Damit könnte sich die Flash-Speichertechnologie als Wegbereiter für Software-defined Storage erweisen.

SDS ist das Herz eines Software-defined Data Center

Software-defined Storage (SDS) ist ein zentrales Element beim Aufbau einer serviceorientierten Infrastruktur. Sie ermöglicht es, Speicherressourcen einfach in Abhängigkeit vom Bedarf zu beschaffen, hinzuzufügen und bereitzustellen. SDS sorgt beispielsweise dafür, dass Administratoren das neue, leistungsstarke Speichermedium Flash den jeweiligen Anforderungen entsprechend in die bestehende Infrastruktur integrieren und dessen Vorteile voll nutzen können, um ein modernes, leistungsfähigeres Rechenzentrum zu schaffen - ganz egal, ob es eine "All-Flash"- oder eine Hybridlandschaft ist. Software vereinfacht die Integration von Flash-Lösungen mit der bestehenden festplattenbasierten Speicherinfrastruktur, die auch in einem softwaredefinierten Rechenzentrum nach wie vor ihre Berechtigung hat. Mit ihrer Hilfe können Administratoren festlegen, wie Flash eingesetzt wird, als lokaler Speicher oder als gemeinsam genutzter Arbeitsspeicher. Dabei werden aus Standardservern Netzwerkspeicher, die mit allen Standardnetzwerkprotokollen kompatibel sind.

Softwaredefinierte Speichersysteme spielen aber noch eine ganz andere, zukunftsweisende Rolle im softwaredefinierten Rechenzentrum: Sie erlauben es Softwareentwicklern, die Leistungsfähigkeit von Applikationen zu steigern, indem sie den Software-Stack optimieren und überflüssigen Code eliminieren - die Applikation wird schneller, da sie die Vorteile des Flash-Speichers voll ausnutzen kann.

Software-defined Storage: Vorteile auf allen Ebenen

Eine softwaredefinierte Speicherinfrastruktur hat Unternehmen einiges zu bieten: größere Flexibilität, mehr Leistung, nahezu beliebige Skalierbarkeit, geringerer Aufwand für Management und Wartung und nicht zuletzt beachtliche Kostenersparnisse sowie Effizienzsteigerung auf mehreren Ebenen. Sie versetzt IT-Verantwortliche in die Lage, die Servicequalität zu erhöhen.

SDS bietet außerdem mehr Möglichkeiten beim Design einer Rechenzentrumsinfrastruktur: Administratoren können die Standardhardware einsetzen, mit der sie am besten zurechtkommen, egal von welchem Hersteller. Obendrein ist für den Unterhalt kein Spezialwissen nötig. Maßgeblich bei der Hardwarewahl sind lediglich die jeweiligen Anforderungen. Es muss also keine reine Flash-Speicherlösung sein. Auch Hybridspeichersysteme und traditionelle Festplattenspeicher können mit Software zu einer maßgeschneiderten, leistungsfähigen Speicherinfrastruktur kombiniert werden, die je nach Architektur den Fokus auf Leistung, Flexibilität oder Zuverlässigkeit und Sicherheit legt.

Eine softwaredefinierte Speicherinfrastruktur lässt sich rasch an veränderte Leistungs- und Kapazitätsanforderungen oder auch Veränderungen in der Unternehmensstrategie anpassen. Wenn die Speicherkapazitäten für neue Aufgaben nicht ausreichen, ist Standardhardware schnell ergänzt, denn die eigentliche Arbeit übernimmt ja die Software. Ein Flash-basiertes SDS ist einfach und nahezu beliebig skalierbar. Es macht das Rechenzentrum damit auch fit für Hochleistungs- und Cloud-Umgebungen, in denen riesige Datenmengen schnell einer Vielzahl von Anwendern zur Verfügung gestellt werden müssen.

Wenn es um die Kosten geht, ist größere Effizienz das entscheidende Stichwort. In der Regel kommt SDS mit weniger Hardware aus, da diese effizienter genutzt wird. Das wirkt sich nicht nur auf die damit verbundenen Kosten wie Wartung, Stromverbrauch, Kühlung oder Platzbedarf aus. Was die meisten IT-Verantwortlichen freuen wird, aber bis jetzt die wenigsten auf der Rechnung haben, sind die Ersparnisse bei den Softwarelizenzgebühren. Denn wer weniger Server betreibt, benötigt auch weniger Lizenzen für das Betriebssystem und die darauf installierten Applikationen.

Software-defined Storage in der Praxis - wie Facebook profitiert

Wie die Marktforscher von IDC kürzlich erläutert haben, sollten Unternehmen, die eine serviceorientierte Infrastruktur aufbauen wollen, auch eine softwarebasierte Speicherinfrastruktur implementieren. Allerdings gibt es bislang für dieses noch junge Konzept nur wenige Anwenderbeispiele. Vielleicht auch deshalb, weil sich viele Unternehmen gar nicht im Klaren sind, dass sie SDS bereits umsetzen. Denn wer beispielsweise Flash-basierte Speicherprodukte einsetzt, ist bereits auf dem besten Weg - auch wenn es dabei auf dem Papier etwa "nur" um die Beschleunigung einer Applikation geht. Auch der jüngste Vorstoß von VMware in Sachen Speichervirtualisierung dürfte so manches Unternehmen einen Schritt in Richtung SDS machen lassen. Speicherarchitekturen in Cloud-Umgebungen sind dagegen nahezu automatisch softwarebasiert.

Ein prominentes Praxisbeispiel für Software-defined Storage ist Facebook: Große, ständig wachsende Datenvolumen müssen schnell für wenige, klar definierte Funktionen einer Vielzahl von Nutzern gleichzeitig über eine Cloud-Infrastruktur zur Verfügung stehen. Neben Speicherkapazität und Skalierbarkeit sind niedrige Latenz, Daten- und Ausfallsicherheit entscheidend für das soziale Netzwerk - alles Dinge, die mit einer herkömmlichen Speicherinfrastruktur nicht in einem akzeptablen Kostenrahmen zu erreichen sind. Deshalb setzt Facebook bereits seit einigen Jahren auf Software-defined Storage: Günstige Standardserver sind in einem Netzwerkspeicher-Pool gebündelt und mit Flash-basierten Speicherkarten von Fusion-io ausgestattet. Diese beschleunigen serverseitig den Zugriff auf die am häufigsten genutzten ("heißen") Daten - bei konstant niedrigen Latenzzeiten für eine hohe Verfügbarkeit. Ergänzt wird diese Infrastruktur von herkömmlichen Festplattenspeichern, die Facebook als günstigste Möglichkeit für die Speicherung von selten genutzten Daten einsetzt, also beispielsweise für die Fotoalben der Nutzer. Damit ist es Facebook gelungen, ein Rechenzentrum einzurichten, das enorm leistungsfähig, aber dank minimalem Hardwareeinsatz auch kosteneffizient ist. Mittelfristig will Facebook sogar die Vision vom "All-Flash-Rechenzentrum" umsetzen. Damit sollen sich Skalierbarkeit und Leistung nochmals erhöhen, bei kleinstmöglichem Platzbedarf und überschaubaren Kosten.

Fazit Software-defined Storage

Das Rechenzentrum der Zukunft muss mehr Leistung mit weniger Hardware erbringen können. Software-defined Storage gibt IT-Verantwortlichen die Möglichkeit, die Speicherinfrastruktur von Grund auf neu zu gestalten. Das Konzept verschafft ihnen die Flexibilität, eine passgenaue Lösung für konkrete lang- und kurzfristige Herausforderungen zu entwickeln. In einer softwaredefinierten Speicherinfrastruktur ist die Hardware nur insofern relevant, als sie die Anforderungen der Daten, die sie vorhält und verarbeitet, hinsichtlich Leistung, Kapazität und Zuverlässigkeit erfüllt. (wh)