Das sagen Dell, EMC, Fujitsu, HDS, HP, IBM, NetApp und Oracle

Storage-Trends: Was bewirkt das Software Defined Datacenter?

Das Software Defined Data Center ist in aller Munde. Heißt das in Bezug auf Storage, dass künftig nur noch pure Speicherschränke benötigt werden und die Intelligenz in die Software wandert? TecChannel hat die führenden Storage-Anbieter um ihre Meinung gefragt.

Beim Software Defined Data Center SDDC werden Server, Storage, Netzwerk und Security zusammengefasst und übergreifend von einer intelligenten Software-Schicht verwaltet. Das komplette Rechenzentrum soll dadurch einfacher zu verwalten sein, die Kosten sinken und IT-Ressourcen lassen sich auf Knopfdruck bereitstellen.

Wir haben die Experten der führenden Unternehmen im Storage-Segment gefragt, was sie vom SDDC-Trend halten welche Produktstrategie die Unternehmen verfolgen:

Welche Strategie verfolgen Sie bei SDDC?

Heißt SDDC in Bezug auf Storage, dass wir künftig nur noch "Commodity-Hardware" benötigen und die Intelligenz sowie Features in den Software-Layer wandern?

Hans Schramm - Dell: "Mit Polarisierung kann man Veränderungen sehr gut darstellen oder auch einleiten. In der Praxis muss man aber in der Regel doch mehr differenzieren, und so verhält es sich auch mit diesem Thema. Es ist sicherlich unumstritten, dass Software heute eine tragende Rolle bei allen Storage-Themen spielt, das wird sich zukünftig weiter verstärken. So basieren zwei der drei von Dell vertriebenen Array-Lösungen EqualLogic und Compellent - auf einer sehr leistungsfähigen Software; wobei Dell speziell bei der Einbindung von unterschiedlichen SSD-Technologien ins Konzept des automatischen Tierings Marktführer ist. Die ursprüngliche Frage würde ich daher mit einem großzügigen Ja beantworten, wenn auch der mit "künftig" umschriebene Zeitraum weit gefasst werden sollte, dazu sind die im Storage-Umfeld zu berücksichtigenden Facetten zu vielseitig. Betrachtet man beispielsweise eine Dell-Compellent-Lösung etwas eingehender, so zeigen sich aber diese Strukturen hier schon recht deutlich: Die Storage-Controller sind Standard-Server, die Front- und Back-End-Verbindungen werden über klassische HBAs abgedeckt. Das sind alles gängige Komponenten, die man auch im Serverumfeld antrifft."

Dr. Stefan Radtke - EMC: "Die Storage-Hardware besteht bei EMC schon heute fast ausschließlich aus Commodity Komponenten. Selbst die High-End Speichersysteme wie EMC VMAX oder Scale-Out-NAS Islilon Systeme bestehen mit wenigen Ausnahmen vollständig aus Commodity Komponenten. Ausnahmen von dieser Strategie sind lediglich Funktionalitäten, die mit Standardkomponenten nicht erreichbar sind. Ein Beispiel für eine solche Ausnahme ist der RapidIO Fabric Interconnect Switch in der EMC VMAX Serie für extreme Anforderungen hinsichtlich Performance und Verfügbarkeit, die bis heute mit keiner anderen Commodity-Technologie wie z.B. InfiniBand oder 10GBE erreicht werden kann. Auch bei den Betriebssystemen auf den Speichersystemen hat eine Entwicklung hin zu offenen Plattformen wie Linux oder FreeBSD stattgefunden."

"Die EMC ScaleIO Plattform ist darüber hinaus ein weiteres Beispiel für die vollständige Umsetzung von Speichersystemen mit Commodity-Komponenten. ScaleIO ist eine reine Softwarelösung zum Aufbau von hochperformanten und verfügbaren SAN-Speicher Infrastrukturen, die tausende von Knoten (Standard x64 Server mit internem DAS Speicher) enthalten kann. Die Verteilung der Daten über die verschiedenen Knoten inklusive der notwendigen RAID-Funktionalitäten wird vollständig durch ScaleIO gesteuert. Dies ist eine ideale Plattform um beispielsweise eine Amazon-EBS-artige Speicherinfrastruktur mit minimalem Aufwand selbst zu implementieren. Typische Anwendungsfelder sind ferner HPC Umgebungen, dynamische Test- und Entwicklungsumgebungen und VMware vSAN Umgebungen. Aufgrund der Entwicklungen in diesem Bereich sowie dem Kostendruck der IT-Abteilungen ist zu erwarten, dass solche Lösungen zumindest im Enterprise und Cloud-Umfeld zunehmend die traditionellen Speichersysteme verdrängen werden."

"Neben der Frage der zunehmend Commodity-basierten Speicher-Lösungen stellt sich tatsächlich die Frage wo die „Intelligenz“ beheimatet ist – nämlich wie bisher in den Speichersystemen oder im Netz. Neben der Software Defined Data Center Strategie (SDDC) bei der EMC sehr eng mit dem Tochterunternehmen VMware zusammenarbeitet, entwickelt und vertreibt EMC eine eigene Software Defined Storage (SDS) Lösung die als eine wesentliche Komponente VIPR beinhaltet. VIPR ist zunächst eine reine Software Lösung, die wie oben beschrieben, die Intelligenz der Speicherinfrastruktur ins Netz verlagert und alle wesentlichen Speicherfunktionen von den darunterliegenden Speichersystemen abstrahiert."

Robert Guzek - Fujitsu Technology Solutions: "Software Defined Data Center wird auch 2014 die Unternehmen beschäftigen. Schließlich kann mit Abstrahierung, Poolbildung und Automatisierung die Storage-Landschaft effizienter organisiert werden. Wir gehen jedoch nicht davon aus, dass dadurch die Intelligenz komplett in das Software-Layer wandern wird. Ganz im Gegenteil: Nur wenn die Hardware selbst über eine gewisse Intelligenz verfügt, ist sie in der Lage, unmittelbar zu reagieren und die erwünschten kurzen Antwortzeiten zu liefern. Die Hardware muss in Zukunft deshalb eher an Intelligenz gewinnen, sie muss sich selbst besser verwalten und sich flexibler an die Geschäftsprozesse und betrieblichen Anforderungen anpassen können. Auf das SDDC folgt als nächster evolutionärer Schritt 2014 deshalb das sogenannte "Business-defined Data Center". In einem BDDC können die Storage-Systeme unterschiedliche Arten von Workloads verarbeiten und schnell auf wechselnde Anforderungen bezüglich Datenzugriff, Geschwindigkeit, Speicherkapazität und Sicherheit reagieren - und das abgestimmt auf die jeweilige Anwendung und den Geschäftsprozess. Die "Quality of Service" spielt dabei natürlich eine zentrale Rolle. Um sie zu gewährleisten, erfordert die Umsetzung eines BDDC neuartige Systemarchitekturen und Managementsysteme. Fujitsu treibt seit geraumer Zeit Entwicklungen in diese Richtung voran und hat mit ETERNUS DX S3 im November 2013 das erste System dieser Art auf den Markt gebracht. Storage-Manager können damit quasi auf Knopfdruck die Antwortzeiten für die einzelnen Anwendungen einstellen, und das ohne aufwändige Systemanpassung. 2014 werden wir diesen geschäftsorientierten Ansatz weiterverfolgen."

Thomas Meier - Hewlett-Packard: "Das Software Defined Data Center ist bei HP bereits Realität: Die Cloud-Management-Lösung Cloud Service Automation, das offene Cloud-Betriebssystem Cloud OS sowie Lösungen für Software Defined Networking und Software Defined Storage sind bereits Bestandteil von HPs Portfolio für das Rechenzentrum der Zukunft."

"Im Speicherbereich verfolgt HP mit seiner Converged-Storage-Strategie das Ziel, eine durchgängige, einheitliche und vereinfachte Speicher-Plattform sowohl für Software Defined Storage als auch für physikalische Speichersysteme zu schaffen. Kunden erhalten damit höchstmögliche Flexibilität und optimierte Leistung für Ihre Applikationen. So kann die IT die jeweiligen Geschäftsbereiche optimal unterstützen."

"Bei Software Defined Storage ist HP mit dem Blockspeichersystem StoreVirtual und dem Plattenspeichersystem StoreOnce Marktführer. Beide Lösungen laufen als Virtual Storage Appliance (VSA) auf "Commodity-Hardware". Aus Erfahrung weiß HP allerdings, dass es dabei zu Engpässen im Bereich IO-Performance und Verfügbarkeit kommen kann. Darum zeichnen sich beide Lösungen dadurch aus, dass sie sowohl als VSA-Software-Lösung als auch als physikalische Speichersysteme mit hoher IO-Performance und Verfügbarkeit eingesetzt werden können. Das Management und die Funktionen sind bei der VSA und den physikalischen Systemen gleich. Je nach Anforderung kann eine VSA-Umgebung auch durch ein physikalisches System erweitert oder abgelöst werden."

Dr. Georgios Rimikis - Hitachi Data Systems: "Hardware wird im professionellen Umfeld auf absehbare Zeit mehr sein als bloße Commodity. Das gilt für 2014 und auch noch darüber hinaus. Natürlich hängt es davon ab, welcher Tradition sich ein Hersteller verpflichtet sieht. Analysten sprechen den Produkten von Hitachi Data Systems seit vielen Jahren die höchste Leistungsfähigkeit zu, gerade wegen der Hardware-basierten Virtualisierung. Die Intelligenz unserer Storage-Controller ist Garant für Enterprise-Leistungsfähigkeit bei gleichzeitiger Hochverfügbarkeit. So gesehen sind wir noch ein gutes Stück davon entfernt, Hardware als bloße Commodity abzutun. Dennoch zeigt der Trendbarometer klar, dass Software-Defined-Ansätze an Bedeutung gewinnen. Diesen Trend wird Hitachi Data Systems 2014 sicherlich mitprägen. Details dazu werden wir im Laufe des Jahres vorstellen."

Michael Achtelik - IBM: "Bei der Umsetzung der Konzepte rund um den Begriff Software Defined Data Center engagiert sich IBM sehr stark. IBM verfolgt hier einen eher noch umfassenderen Ansatz als SDDC und hat hierzu den Begriff Software Defined Environments (SDE) geprägt."

"Das Ziel von Software Defined Environments ist dabei, die gesamte IT-Infrastruktur zu optimieren und zu automatisieren, so dass sie in der Lage ist, sich extrem flexibel und schnell an die Anforderungen der unterschiedlichsten Workloads anzupassen. In heutigen Umgebungen werden Workloads immer noch manuell den vorhandenen IT-Ressourcen zugeordnet. In Software Defined Environments erfolgt dies völlig dynamisch und automatisiert. Diese Zuordnung unterliegt dabei zusätzlich einer ständigen automatischen Anpassung, so dass die verfügbare Infrastruktur in einem SDE stets an Ihrem Optimum betrieben wird."

"Der Kern von Software Defined Environments ist eine "Software Defined Infastructure", die die drei Säulen (Software Defined) Computing, (Software Defined) Networking und (Software Defined) Storage orchestriert. Bei der Umsetzung dieser Strategie setzt IBM in großem Maße auf Openstack als zentrales Framework."

Software Defined Storage speziell im Sinne dieser Strategie muss nun vor allem zwei Eigenschaften haben: Es müssen die erforderlichen Schnittstellen (APIs) existieren, um von übergeordneten Frameworks (z.B. Openstack) programmiert und orchestriert werden zu können und es muss vor allem die notwendige Flexibilität vorhanden sein, die extrem dynamischen Anforderungen bedienen zu können. Diese Flexibilität ist sehr viel leichter sicherzustellen in einer Architektur, in der die gesamten Storage Services Funktionen in einer Software-Schicht konzentriert sind, die von der eigentlichen - möglichst vollständig virtualisierten - Speicher-Hardware (in der dann sehr viel weniger Intelligenz und Funktionalität benötigt wird) entkoppelt ist. Eine solche Speicher-Infrastruktur kann sehr viel einfacher an die funktionalen Anforderungen angepasst werden und neue Technologien (wie zum Beispiel die rasanten Entwicklungen bei All Flash Arrays) können sehr viel schneller integriert werden."

"Dieser Ansatz ist grundsätzlich nicht neu. IBM verfolgt ihn konsequent seit über 10 Jahren mit den Produkten SAN Volume Controller/ Virtual Cloud Storage Center. Somit steht hier schon heute eine extrem ausgereifte, voll virtualisierte Speicher-Infrastruktur-Lösung als eine tragende Säule zur Umsetzung einer Software Defined Storage Lösung bereit."

Johannes Wagmüller - NetApp: "Software Defined Data Center bedeutet nicht, dass künftig ausschließlich Commodity-Hardware eingesetzt werden kann. Damit SDDC halten kann, was es verspricht, muss das Spektrum an Virtualisierungs-Plattformen mit standardisierten Storage-Services und programmierbaren Schnittstellen für den Zugriff unterstützt werden. Commodity-Hardware mag für Betreiber wie Amazon AWS und Google eine Option darstellen, da sie mit eigenen Entwicklungsabteilungen für Integration und Qualitätssicherung sorgen. Im Enterprise- und KMU-Markt, wo diese mächtigen Entwicklungs-Ressourcen nicht zur Verfügung stehen, wird weiterhin auf die Betriebssicherheit von Enterprise Speichersystemen Wert gelegt werden. Ein sehr wichtiger Grund dabei ist neben der Integrations- und Funktionsfähigkeit der hohe Anspruch, der an die Datenintegrität gestellt wird und nur mit hohem Entwicklungsaufwand und organsiertem Support zuverlässig gewährleistet werden kann. Bei der Speicherung sensibler Daten gehen die Unternehmen in der Regel keine Risiken ein."

"Die Säulen unserer SDDC-Strategie sind die engen Kooperationen mit unseren Partnern VMware, Microsoft, Cisco und Citrix für die Integration in die führenden Cloud Stacks der Partner sowie in OpenStack und CloudStack. Bei unserer Vision von SDDC wird der ganze Stack betrachtet: Netzwerk, Server und Storage greifen ineinander und der Stack kann managementseitig so bedient werden, dass alles hoch automatisiert, orchestriert und flexibel abläuft. Vor diesem Hintergrund sind starke APIs und Frameworks wichtige Faktoren."

Vincenzo Matteo - Oracle: "Wir halten Software Defined Storage aufgrund der verdeckten Kosten für kein wirklich vorteilhaftes Konzept. Weil alle Integrations-, Prüfungs- und Wartungsaufgaben für das System vollständig auf den Anwender übergehen, erhöht sich der Aufwand in diesen Bereichen signifikant, die Ausgaben steigen deshalb gleichermaßen. Die grundlegende Bestrebung von Software Defined Data Centers aber, Ressourcen effektiver nutzen und flexibel auf variable Systemauslastungen reagieren zu können, ist schon lange ein vorrangiges Ziel des Oracle Produktportfolios."

"Im Gegensatz zum früher weit verbreiteten universellen Ansatz, Datenbank-Systeme für eine möglichst große Anzahl von Anwendungen zu optimieren, setzt Oracle mittlerweile auf die vorgeschaltete softwareseitige Integration. Applikationen und Storage-Lösungen werden dabei schon im Entwicklungsprozess aufeinander abgestimmt, was im späteren Zusammenspiel Zugriffszeiten und die Verarbeitungsgeschwindigkeit enorm erhöht. Die Oracle ZS3 Storage Serie ist ein gutes Beispiel für dieses Vorgehen. Sie wurde gemeinsam mit der Oracle Database 12c entwickelt und ist dementsprechend optimal auf deren Anforderungen hin abgestimmt, was sich in einer enormen Leistungs- und Effizienzsteigerung beim Umgang mit großen Datenmengen wiederspiegelt."

(cvi)