Automatisierung, Cloud, Big Data, SSD

Storage-Trends - Speichertechnologien für Unternehmen

28.03.2013 von Christian Vilsbeck
Unverändert nimmt die zu speichernde Datenmenge zu. Gleichzeitig wird es immer schwieriger, die Daten zu managen. IT-Verantwortliche stehen bei der Planung der Storage-Infrastruktur vor vielen Herausforderungen. Experten führender Hersteller erläutern, welche Strategien jetzt wichtig sind.

IT-Verantwortliche und Administratoren haben es in den meisten Unternehmen nicht leicht. Die Anwender jammern, dass ihnen der Speicherplatz im Netzwerk ausgeht und alles immer zu langsam ist. Und durch die Vielzahl der ungebremst wachsenden Datenmenge wird das Finden der richtigen Daten zunehmend schwieriger. Big Data ist inzwischen mehr als ein Buzzword, bei vielen Firmen sind der Wildwuchs der Daten und der Versuch, diese zu strukturieren, längst Realität.

Das Budget für Storage-Ausgaben skaliert dabei nicht wirklich mit den wachsenden Anforderungen und Problemen. Die vorhandene Speicherlandschaft muss somit noch besser ausgenutzt werden. Neuanschaffungen sollen vor allem die Komplexität reduzieren und den Level der Automatisierung erhöhen. Hinzu kommt die Frage vieler IT-Verantwortlicher, welche Storage-Dienste sich in die Cloud auslagern lassen.

Und bei all den Maßnahmen zur Steigerung der Storage-Effizienz dürfen nach wie vor der Klassiker Backup und die gesetzeskonforme Speicherung der Daten nicht außer Acht gelassen werden.

Bildergalerie: Storage-Trends 2013
Hans Schramm, Field Product Manager Large Enterprise, Dell
"Das Daten-Management und das Datenwachstum bleiben auch im Jahr 2013 wichtige Herausforderungen."
Dirk Pfefferle, Director Enterprise Sales, EMC Deutschland
"Innovative Unternehmen migrieren zu konvergenten Infrastrukturen, bei denen Server, Storage und Netzwerk in einer Einheit zusammengefasst sind. Das bietet die nötige Agilität, Flexibilität und auch Effizienz im Hinblick auf das weltweite Datenwachstum."
Robert Guzek, Senior Alliance Manager im Sales Competence Center Storage & Network Solutions, Fujitsu Technology Solutions
"Während das Thema Big Data 2012 im Regelfall hauptsächlich Großunternehmen betroffen hat, wird sich 2013 auch der Mittelstand damit auseinandersetzen müssen."
Thomas Meier, Chief Technologist Storage, Hewlett Packard
"Das Verlangen nach 24-7-Verfügbarkeit, weiter wachsende Datenmengen und der zunehmende Mangel an IT-Spezialisten machen 'Konsolidierung der Infrastrukturen' zur wichtigsten Herausforderung im Storage-Bereich."
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Eine Verdoppelung der Speicherdichte im Zeitraum von 18 bis 24 Monaten ging einher mit einer Preiserosion von 30 Prozent jährlich. Diese Trends werden sich voraussichtlich dramatisch verändern."
Ralf Colbus, Leading Solution Sales Professional Storage, IBM Deutschland
"Es gibt immer mehr und schneller wachsende Daten, der Kostendruck bleibt bestehen, hinzu kommt noch der Fachkräftemangel. Für uns bedeutet das, dass wir die Effizienz in der Storage-Infrastruktur durch Technologien steigern müssen. Ein Administrator muss mehr verwalten können und zwar schneller und einfacher!"
Galvin Chang, Associate Director Global Product Marketing, Infortrend
"Da die Kapazitäten einzelner Laufwerke auf 3 bis 4 TByte zugehen, können Enterprise-Kunden, die aus Kosten- oder Kapazitätsgründen keinen RAID-6-Schutz verwenden, möglicherweise Probleme durch lange RAID-5-Wiederaufbauzeiten bekommen."
Herbert Bild, Solutions Marketing Manager, NetApp
"Aus unserer Sicht wird 2013 ein Meilenstein für den Einsatz von Flash-Technologien werden. Dabei wird es in erster Linie um die Frage gehen, ob Produkte und Hersteller die Anforderungen erfüllen können, die sich durch den Einsatz dieser Produkte im Unternehmen ergibt."
Stefan Weidner, Technical Services Manager, Central Europe, Silicon Graphics GmbH
"Die größten Herausforderungen im klassischen Unternehmensumfeld sind weiterhin die Bedienbarkeit der Systeme, der Preis für heutige Systeme und die Flexibilität in der Nutzung. Kunden benötigen eine modulare, flexible und schlicht bezahlbare Lösung für jede Art der Datenhaltung, ob es sich hierbei um Block-, NAS- oder Objektbasierten Storage handelt."

Damit die Storage-Infrastruktur im Unternehmen möglichst problemlos funktioniert, sollten Sie auf den richtigen Trend und die richtige Technologie setzen. Wir haben die Experten der führenden Unternehmen im Storage-Segment gefragt, welche Trends sie erwarten:

Ausführliche Informationen rund um das Thema Storage finden Sie bei TecChannel in unserem Storage-Channel. Interessieren Sie primär Storage-Produkte, so werden Sie in unserer Produktdatenbank fündig.

Einfachheit und Automatisierung

Für IT-Verantwortliche und Administratoren werden Einfachheit und die Automatisierung beim Storage immer wichtiger. Wie helfen Ihre Produkte, das Management zu vereinfachen und Optimierungen automatisch ablaufen zu lassen?

Hans Schramm - Dell: "Das Management der Storage-Systeme soll intuitiv und sicher erfolgen. Auslastung und Zustand der Systeme müssen auf einen Blick zu erkennen sein. Das Gleiche gilt für das Reporting und das weitgehend automatische Ermitteln von Trends. Nicht zu vergessen der Einsatz von Snapshots und Funktionen, um Systeme asynchron oder auch synchron zu replizieren. Einfache, grafische und interaktive Oberflächen sind ein Muss, ebenso wie die Möglichkeit, Meldungen der Systeme über unterschiedliche Kommunikationswege zu versenden. Diese Vorgabe gilt für das Storage-System selbst, aber auch für das Zusammenspiel mit Hypervisor-Umgebungen, da viele IT-Administratoren die Storage-Systeme aus dem jeweiligen Hypervisor managen wollen. Das spart Zeit und damit Geld."

Dirk Pfefferle - EMC: "Mit dem weltweiten Datenwachstum stehen IT-Verantwortliche vor einer Herausforderung; das zeigt die Digital-Universe-Studie, die wir im Dezember 2012 veröffentlicht haben: Während die Daten von 2010 bis 2020 um das 50-Fache wachsen werden, steigt die Anzahl an Fachkräften nur um das 1,5-Fache - eine eindeutige Diskrepanz. IT-Verantwortliche benötigen Lösungen, mit denen sie diesen Herausforderungen begegnen können. Grundvoraussetzung ist eine flexible, skalierbare und einfach zu verwaltende IT-Infrastruktur. Ein erster Schritt dahin sind die Virtualisierung der bestehenden Infrastruktur und damit der Weg in die Private Cloud."

Robert Guzek - Fujitsu Technology Solutions: "Storage-Management ist Pflichtprogramm für jedes Unternehmens. Je nach Hersteller werden Storage-Systeme jedoch sehr unterschiedlich gemanagt. Generell sind natürlich hierbei die Anforderungen des Anwenderunternehmens ausschlaggebend. Wichtig ist auch, ob, und wenn ja, welche Service Level Agreements vereinbart wurden. Darüber hinaus muss bekannt sein, wer im Unternehmen welchen Zugriff auf die Systeme hat. Vorab definierte Prozesse erleichtern das Management. Soll dieses vereinfacht werden und sollen Optimierungen automatisch erfolgen, gilt es, Funktionaltäten wie AST (Automated Storage Tiering) zu implementieren. Diese Technologie bieten beispielsweise alle Speichersysteme der Reihe Fujitsu Eternus DX in Verbindung mit der Eternus SF Management-Software Version 15 (V15). AST verfolgt dabei zwei Ziele: Erstens ermöglicht es den schnellen Zugriff auf häufig genutzte Daten. Diese werden auf Speichermedien - vorzugsweise Solid State Drives (SSDs) - mit kurzen Zugriffszeiten platziert. Zweitens bietet es ein besseres Preis-Leistungs-Verhältnis beim Speichern selten genutzter Daten: Diese legt AST auf Massenspeichern ab, die eine geringere Performance bieten, dafür aber preisgünstiger sind, etwa SAS- (Serial-Attached SCSI) oder SATA-Festplatten."

Robert Guzek, Senior Alliance Manager im Sales Competence Center Storage & Network Solutions, Fujitsu Technology Solutions: "Storage-Management ist Pflichtprogramm für jedes Unternehmen. Je nach Hersteller werden Storage-Systeme jedoch sehr unterschiedlich gemanagt."
Foto: FTS

"AST kann - auch im laufenden Betrieb - richtlinienbasiert eingerichtet oder durch das System selbst übertragen werden. Ein Vorteil von AST ist die bessere Auslastung der Speichermedien. Laut IDC liegt sie bei konventionellen Storage-Architekturen im Schnitt um die 45 Prozent. Bei einem Storage-System wie der Fujitsu Eternus DX in Verbindung mit AST steigt sie auf mehr als 80 Prozent. Da das Speichersystem Daten automatisch den optimalen Speicherplatz zuweist, können sich die IT-Administratoren um ihr eigentliches Tagesgeschäft kümmern."

Thomas Meier - Hewlett-Packard: "Voraussetzung für einfaches Management und effiziente Automatisierung ist die Konsolidierung der Daten auf durchgängigen und schlanken Speicherinfrastrukturen. HP hat dies unter dem Stichwort Polymorphic Simplicity (in etwa: "vielgestaltige Einfachheit") adressiert: Beispielsweise bieten 3PAR-StoreServ-Speichersysteme verschiedene Ausprägungen von Kapazität, Performance und Verfügbarkeit auf Grundlage einer einheitlichen Technologie- und Managementplattform. 3PAR-Systeme lassen sich sehr einfach in eine vollautomatische Speicherbereitstellung (Provisionierung) einbinden, da sie interne Virtualisierung unterstützen (das heißt die Verteilung der Daten auf alle Platten, Widestriping genannt) und eine Web-/RESTful-API zum Speichermanagement bieten. Dadurch befreit das System IT-Verantwortliche von der manuellen Speicherbereitstellung - so werden Ressourcen für wichtigere, strategische Aufgaben frei. Ein einzelnes physikalisches 3PAR-System lässt sich mandantenfähig in mehrere logische, virtuelle Speichersysteme aufteilen."

Dr. Georgios Rimikis - Hitachi Data Systems: "Unified-Konzepte werden verstärkt Einzug in Rechenzentren halten und sowohl Einfachheit als auch Automatisierung vorantreiben. Sie reduzieren darüber hinaus den Testaufwand im Unternehmen, der sonst mit massiven organisatorischen und finanziellen Folgen verbunden ist. Ein Beispiel: Die Director-Orchestrierungssoftware von Hitachi Data Systems, die Bestanteil der Unified Compute Platform Pro ist, steuert sowohl Server als auch Storage und Netzwerk. Das bringt naturgemäß auch Erleichterungen bei einem isolierten Blick auf die Storage-Ebene. Eine noch tiefere Integration von Angeboten wird die nahtlose Bedienung der Systeme weiter vereinfachen, etwa in den Bereichen Dynamic Provisioning und Dynamic Tiering. Die Agilität der Daten ist generell ein interessantes Feld. Es gibt immer mehr Unternehmen, die wegen ihres Datenwachstums und der Technologiewechsel permanent Daten migrieren. Die Notwendigkeit unterbrechungsfreier Migrationen steigt folglich. Zu guter Letzt wird die Verlinkung zwischen Anwendungen und Speicher weiter verbessert werden - das Stichwort lautet hier 'Storage Aware Application'."

Ralf Colbus - IBM: "Wir haben seit der Entwicklung und Einführung des IBM-XIV-Speichersystems genau diese beiden Disziplinen herausgestellt. Das XIV-Speichersystem ist einfach zu administrieren. Diesen Ansatz haben wir dann konsequent weiterentwickelt. Heute hat jedes IBM-Speichersystem inklusive unseres SRM-Tools (Storage Resource Management) das gleiche 'Look & Feel', das heißt, ein Storage-Verantwortlicher kann durch das einheitliche Management in allen Disziplinen der Speicherlandschaft ein Virtualisierungssystem genauso managen wie ein NAS-, Entry- oder Midrange-Disk-System. Dieser Schritt ist für unsere Kunden sehr wichtig. Hier passt ein Vergleich mit der Autobranche: Wenn ich mich in ein Auto setze, weiß ich sofort, wo die wichtigsten Bedienelemente sind, wie das Radio bedient wird, egal ob es ein Kleinwagen oder ein Sportwagen ist. Des Weiteren setzen wir Technologien ein, um mehr Standardaufgaben auf Systemebene zu verlagern (zum Beispiel Performance-Tuning). Dank dieser Funktionen können wir bis zu 40 Prozent im Vergleich zu unseren Wettbewerbern an administrativen Tasks einsparen."

Galvin Chang - Infortrend: "Die Anforderungen an die Automatisierung des Speichermanagements sind von Kunde zu Kunde verschieden. Für kleine und einfache Anlagen - generell mit weniger als fünf Arrays - werden Konfigurationsagenten bei der Installation und Grundkonfiguration hilfreich sein. In größeren Anlagen und bei mehreren Speicherstandorten kann ein flexibles und leistungsfähiges Skript oder CLI (Command Line Interface) erfahrenes technisches Personal dabei unterstützen, diese Maschinen sehr effizient zu managen - beispielsweise bei der Sommerzeit-Winterzeit-Anpassung und beim Umbenennen von Speichern."

Herbert Bild - NetApp: "Wir sind beim Thema Einfachheit und Automatisierung schon sehr weit und setzen bereits seit Jahren auf Unified Storage. Für uns ist Unified Storage mehr als nur die Kombination von File- und block-basierten Protokollen in einem Storage-System. Die entscheidenden Vorteile eines Unified Storage kommen unserer Meinung nach von einem gemeinsamen Management-Layer, der Nutzern den Aufbau von shared und effizienten IT-Infrastrukturen ermöglicht. Bei uns ist dieser Layer unser Betriebssystem Data ONTAP."

"Das Thema Clustering ist ein großer Trend. Mit clustered Data ONTAP müssen Administratoren nicht mehr jedes Storage-System einzeln verwalten, sondern können sie in einem großen Pool zusammenfassen. Der Storage wird dabei über mehrere HA-Paare hinweg virtualisiert und in einem einzigen logischen Ressourcen- und Namespace-Container verwaltet. Die Skalierbarkeit reicht von einigen Terabyte bis zu mehreren Petabyte (derzeit bis zu 50) und erfolgt transparent für den laufenden Betrieb."

Arndt Müller - Oracle: "Substanzielle Fortschritte lassen sich hier nur erzielen, wenn man Storage-Konfiguration und -Management von Anfang an in den kompletten IT-Stack (Storage, Netzwerk, Server, Betriebssystem, Datenbanken und Applikationen) integriert. Es geht hierbei nicht nur um Storage. Die Applikation stellt Service-Level-Anforderungen, die in allen Ebenen des IT-Stacks die notwendigen Konfigurationen und Einstellungen vornehmen. Solche Dinge müssen in Echtzeit und vor allem automatisch geschehen. Genau dies realisiert Oracle bei vielen Produkten, von den Oracle Engineered Systems und SuperCluster über die Oracle-Database-Appliance bis hin zur ZFS-Storage-Appliance."

Stefan Weidner - SGI: "Die Vereinfachung der Administration, Übersichtlichkeit der Funktionalität, Monitorbarkeit der Systemlandschaft und Automatisierung von diversen Funktionen und wiederkehrenden Administrationstätigkeiten sind die Hauptaufgabe des sichtbaren Teils der Storage-Software. Nicht ohne Grund konnten die vergangenen Jahre immer weiter aufzeigen, dass 'Software defined Storage' auf Siegeskurs ist und auch weiterhin sein wird. Die Komplexität von proprietärer Hardware und ihre Bedienung entsprechen nicht mehr den heutigen Erwartungen moderner und schlanker IT Abteilungen, die in der Lage sein müssen, sich auf geänderte Anforderungen mit den vorhandenen Systemen einzustellen."

Datenmanagement für Big Data

Big Data Analytics wird durch das Wachstum unstrukturierter Daten noch wichtiger. Wie erleichtern Ihre Produkte das Datenmanagement?

Hans Schramm - Dell: "Bei Big Data Analytics werden sich der Storage- und der Serverbereich ergänzen beziehungsweise überlappen. Als Komplettanbieter ist Dell hier gut aufgestellt. Erstens verfügt Dell über ein langjähriges und umfangreiches Know-how bei der Entwicklung von Servern - und dies sowohl bei klassischen Systemen als auch bei den Cloud-Servern. Zweitens bietet Dell ein vollständiges Lösungsportfolio, das es erlaubt, Informationen sehr effizient auf den unterschiedlichen Storage-Medien zu speichern und diese mit Servern zu verbinden. Die Zusammenarbeit mit spezialisierten Partnern rundet das Lösungsangebot ab."

Dirk Pfefferle, Director Enterprise Sales, EMC Deutschland: "Viele Unternehmen stehen beim Thema Big Data Analytics noch am Anfang. Die Technologien und Lösungen sind vorhanden, doch es fehlt an Know-how beziehungsweise dem Wissen, was mit den Daten gemacht werden kann."
Foto: EMC

Dirk Pfefferle - EMC: "Viele Unternehmen stehen beim Thema Big Data Analytics noch am Anfang. Die Technologien und Lösungen sind vorhanden, doch es fehlt an Know-how beziehungsweise dem Wissen, was mit den Daten gemacht werden kann. Greenplum Chorus, unsere Analyseplattform für Big Data, entwickeln wir ständig weiter. Erst kürzlich haben wir unsere Greenplum-Chorus-Software als Open-Source-Code veröffentlicht. Das soll die Entwicklung von Anwendungen fördern. Zudem kooperieren wir mit Kaggle. Im Rahmen der Zusammenarbeit integriert EMC den Zugang zur Kaggle-Community in Greenplum Chorus. Die Kaggle-Community besteht aus 55.000 Datenexperten, die sich auf Wettbewerbsbasis an der Ableitung von Vorhersagen aus einem Datenbestand beteiligen. Die jeweils beste Lösung wird vom Auftraggeber des Wettbewerbs honoriert; er erhält im Gegenzug die Rechte an der Auswertungsmethode."

Robert Guzek - Fujitsu Technology Solutions: "Fujitsu Japan bietet hierfür bereits mit eXtreme Transaction Processing, Big Data Parallel Processing und Big Data Complex Event Processing unterschiedliche Lösungen an. Aufgrund der Komplexität der Infrastruktur, die in der Produktvielfalt und dem produktübergreifenden Portfolio begründet ist, ist ein optimal aufeinander abgestimmtes und übergreifendes Systemmanagement sehr wichtig. Fujitsu bietet Kunden eine auf ihre Systemlandschaft abgestimmte Lösung an."

Thomas Meier - Hewlett-Packard: "Durch die konsequente Implementierung der HP-Autonomy-Software in Speichersysteme schafft HP Lösungen, mit denen sich unstrukturierte Daten mit einem bisher nicht gekannten Automatisierungsgrad verwalten, speichern, durchsuchen und wiederherstellen lassen. HP hat die Datenanalyseplattform Autonomy IDOL (kurz für Intelligent Data Operating Layer) bereits als Standard in zahlreiche Storage-Systeme implementiert und wird dies auch mit neuen Versionen und Systemen tun."

Dr. Georgios Rimikis - Hitachi Data Systems: "Wir nähern uns dem Thema von zwei Seiten. Zum einen steigern wir 2013 nochmals die Leistungsfähigkeit unserer Systeme, indem wir unsere Flash-Strategie weiter verfolgen und unser komplettes SAN-Speicherportfolio mit Flash-Speicher anbieten. Sowohl die Hitachi Unified Storage (HUS) als auch die virtualisierungsfähige Variante HUS VM erhalten damit die Technologie, die in der Virtual Storage Platform (VSP) bereits jetzt für Leistungswerte von über einer Million IOPS sorgt. Gerade bei Big Data zählt ja die Leistungsfähigkeit des Speichers in Bezug auf I/Os und Antwortzeit; die Kapazität ist weniger eine Frage, als es der Begriff vermuten lässt. Zum anderen ist unsere enge, bereits 18 Jahre dauernde Zusammenarbeit mit SAP ein großer Vorteil. Allein seit 1998 hat HDS zehnmal den SAP Award für höchste Kundenzufriedenheit gewonnen. SAP ist sozusagen das andere Ende unserer Big-Data-Herangehensweise. Seit einigen Wochen ist zum Beispiel mit der Hitachi UCP Select für SAP HANA eine entsprechend optimierte Lösung verfügbar, die auch In-Memory unterstützt. Auch in weiteren Bereichen, etwa mobile Infrastrukturen, unterstützen die HDS-Lösungen SAP."

Ralf Colbus - IBM: "Das Thema unstrukturiertes Datenwachstum lösen wir auf verschiedenen Ebenen: von Organisationvorschlägen (Beispiel: Ist eine Regel für die Löschung von Daten im Unternehmen eingeführt?) bis hin zu den Ebenen der Subsysteme (automatische Verlagerung von Files gemäß Policies). Datenreduktionstechnologien helfen uns ebenfalls dabei, können aber - je nach Ausprägung - auch negative Effekte haben. Wichtig für uns sind ein skalierbarer Ansatz, der von 'klein' bis 'PB' genügend Speicher liefert, und vor allem ein Ansatz, der unstrukturierte Daten schnell sichern und wiederherstellen kann. Der BI- oder Analytics-Bereich wird 2013 durch Appliances angereichert. Es gibt also mehr 'out of the box'-Lösungen, die schneller eingesetzt werden können."

Galvin Chang - Infortrend: "Für die im Datenmanagement tätigen Techniker ist es bei der Ressourcenplanung hilfreich, die History zu konsultieren. Wir erwarten, dass die meisten Speicher SRM-Funktionen (Storage Resource Management) bieten werden, mit denen sich die Speichernutzung effizient nachverfolgen lässt, zum Beispiel als Kapazitätszuwachsrate, wöchentliche Anforderungen an die Speicher-Performance und anwendungsspezifische Statistiken zu den Speicheranforderungen. Diese historischen Daten spiegeln die tatsächlichen physischen Anforderungen der Benutzer wider und können eine wichtige Rolle bei der Planung der künftigen Speicherressourcen spielen."

Herbert Bild - NetApp: "Auch hier unterstützen wir unsere Analytics-Partner wie Hadoop oder SAP im HANA-Umfeld mit unseren Storage-Lösungen. Dabei gehen wir auf die individuellen Anforderungen der einzelnen Applikationen ein und bieten darauf aufbauend den passenden Storage an. So verlangt Hadoop beispielsweise sehr hohe Performance, Bandbreite und Dichte. Hierfür eignet sich die NetApp-E-Series-Plattform am besten, da sie die Anzahl der Replikationen und somit den Speicherbedarf des Unternehmens verringern kann. Bei SAP HANA hingegen stehen Themen wie Skalierbarkeit, einfaches Management und Hochverfügbarkeit im Vordergrund, wofür sich unsere FAS-Systeme aufgrund ihrer hohen Skalierbarkeit besser eignen."

Arndt Müller - Oracle: "Big Data Analytics dient der Gewinnung von Informationen aus großen unstrukturierten Datenbeständen. Um daraus geschäftsrelevante Erkenntnisse zu ziehen, muss man diese Informationen allerdings mit den strukturierten Daten der klassischen Datenbanken verbinden. Es geht eben nicht nur darum, enorme Datenmengen mit Big-Data-Analytics-Algorithmen, wie zum Beispiel MapReduce, schnell zu verarbeiten. Ohne eine tiefe Integration mit SQL-Datenbanken bleibt das Ganze nur Stückwerk. Oracle hat mit der Big-Data-Appliance eine Lösung an der Hand, die von Anfang an für die Zusammenarbeit mit der Oracle-Datenbank entwickelt wurde. Zusammen mit der Oracle Database Machine und der Oracle Exalytics In-Memory Machine steht unseren Kunden eine voll integrierte Lösung zur Verfügung, die das große Versprechen von Big Data auch wahr macht: Erkenntnisse zu liefern, die sonst nicht zu erlangen sind."

Stefan Weidner - SGI: "Unstrukturierte Daten bleiben weiterhin die größte Herausforderung. Hier muss noch unterschieden werden zwischen den Anforderungen im Big-Data-- und HPC-Umfeld und denen im klassischen Unternehmen. Während heute im Big-Data-Umfeld schon bekannte und zuverlässige Lösungen für Forschung, Lehre, Wissenschaft und einige spezielle weitere Einsatzgebiete existieren und sich tagtäglich im Einsatz beweisen, ist die Welt der Unternehmen noch nicht so weit, unstrukturierte Unternehmensdaten durch Big Data nutzbar zu machen. Zwar finden sich schon einige wenige Software- und Hardwarelösungen auf dem Markt. Jedoch ist derzeit noch nicht zu erkennen, welche Lösungsansätze sich hier langfristig durchsetzen werden. Fakt ist, dass sich künftig eine Vielzahl von Technologien aus dem High-Performance-Computing im Unternehmenseinsatz wiederfinden wird. Ob dies Softwarelösungen sind wie SGI LiveArc (TM) als Digital Asset Management oder große Shared-Memory-Serversysteme wie die SGI UV 2000 (TM) mit einer Kapazität von mehreren Dutzend TByte RAM auch die größten Datenbanken beschleunigen, wird von Fall zu Fall zu entscheiden sein."

"Klar ist mittlerweile aber, dass die klassischen Ansätze traditioneller SQL-Datenbanken hier nicht mehr ausreichen können, um solche Daten nutzbar zu machen. Allein HPC-Ansätze aus einer Kombination von Storage und Computing können hier noch weiterhelfen."

Komplettlösung: Server, Netzwerk und Storage

Komplettlösungen von Servern, Netzwerk und Storage werden bei Firmen zunehmend beliebter, beispielsweise für eine neue Cloud-Infrastruktur. Welche Lösungen haben Sie parat?

Hans Schramm - Dell: "Das Consulting, wie es Dell bietet, spielt hier die entscheidende Rolle. Ein komplettes Hard- und Softwareportfolio ist zwar eine wichtige Voraussetzung, denn ein Anwender hat dann einen einzigen Anlaufpunkt für alle Bereiche. Zuvor aber müssen eine Bestandsaufnahme durchgeführt und ein Sollzustand definiert werden: Was genau wird benötigt und welche Schritte sind notwendig, um das Ziel zu erreichen? Speziell im Bereich Cloud-Infrastruktur besteht ein großer Beratungsbedarf."

Dirk Pfefferle - EMC: "Im Vblock der VCE Company werden die unterschiedlichen Verfahren und Produkte aus den Bereichen Virtualisierung, Computing, Netzwerktechnologie, Speichersysteme und Datensicherheit kombiniert. Die dazugehörigen Komponenten kommen von EMC, Cisco und VMware. Dabei stehen den Kunden unterschiedliche Konfigurationen zur Verfügung, die sie je nach Bedarf wählen können. Insgesamt profitieren Nutzer von der hohen Flexibilität und der einfachen Verwaltung. Mit der VSPEX-Referenzarchitektur bieten wir eine Kombination aus EMC Datenspeicher- und Backup-Technologien, wie Deduplizierung, Kompression und Fully Automated Storage Tiering (FAST) mit Hypervisor und virtuellen Desktop-Umgebungen sowie Virtualisierungs-, Server- und Netzwerklösungen der EMC-Alliance-Partner Brocade, Cisco, Citrix, Intel, Microsoft und VMware. Die Grundlage von VSPEX sind 14 Ausgangskonfigurationen, die von Kunden am häufigsten als Basis für Cloud Computing eingesetzt werden."

Robert Guzek - Fujitsu Technology Solutions: "Fujitsu stellt ein umfassendes Angebot an Trusted-Cloud-Lösungen und -Services zur Verfügung, unabhängig davon, ob Kunden die Cloud für elementare Computing-Services, ein komplettes Backbone an IT-Systemen oder für die Bereitstellung anspruchsvoller Anwendungen verwenden möchten. Je nach Anforderung des Kunden gibt es Trusted-, Public-, Private- oder Hybrid-Cloud-Lösungen. Assessment-Services helfen mit ihrer Beratung den Unternehmen, die Möglichkeiten der Cloud voll auszuschöpfen und die jeweils konkreten Herausforderungen zu bewältigen. Darüber hinaus liefert Fujitsu die nötige Hardware aus den Bereichen Mobility wie zum Beispiel Notebooks, Desktops-PCs oder Tablets sowie Storage- und Serverprodukte für das Data Center. Generell stellt Fujitsu seine Cloud-Services auch als Infrastructure-as-a-Service, Software-as-a-Service, Platform-as-a-Service sowie als Enablement- und Connectivity-Services zur Verfügung."

Thomas Meier - Hewlett-Packard: "HP bündelt Server-, Netzwerk- und Storage-Lösungen sowie Services bereits seit Längerem nach der Converged-Infrastructure-Strategie und bietet Kunden umfassende Lösungen für die gesamte Unternehmens-IT aus einer Hand. Dabei reicht die Bandbreite von Hard- und Software über Outsourcing-Services und Support bis hin zur Beratung bei Systemkonzeption und -implementierung. Tatsächlich bietet HP das derzeit umfassendste Lösungsportfolio am Markt und ist deshalb der einzige Anbieter, der Unternehmen mit integrierten Lösungen für die Cloud-IT-Ära versorgen kann."

Dr. Georgios Rimikis - Hitachi Data Systems: "Hitachi Data Systems hat im Oktober die Hitachi Unified Compute Platform vorgestellt, kurz UCP. Mit dieser Plattform können Unternehmen ein Komplettpaket aus Server, Netzwerk, Speichersystem und teils auch Software beziehen. Insgesamt sind elf Varianten erhältlich, die auf zwei konvergenten Infrastrukturfamilien basieren. Die langjährige Erfahrung unserer Konzernmutter Hitachi Ltd. beim Bau von Servern kommt den Unternehmen hierbei erneut zugute, wie auch beim Flash Controller. Grundsätzlich ist eine Komplettlösung für uns aber auch in einer anderen Ausprägung denkbar. Wer wirklich alles aus einer Hand will, kann bereits jetzt über die Hitachi Global Services ein Storage-on-Demand-Modell buchen. HDS übernimmt in diesem Fall den vollständigen Storage-Betrieb. Ein großer bayrischer Automobilhersteller nutzt zum Beispiel ein derartiges Konzept sehr erfolgreich seit einigen Jahren. Ein solches Konzept ist mit der UCP natürlich grundsätzlich auch für den vollständigen Rechenzentrumsbetrieb denkbar."

Ralf Colbus - IBM: "Das Thema ist bei uns in der PureSystems-Produktlinie zusammengefasst, einer Kombination aus Servern, Infrastruktur, Storage und der Management-SW. Wir bieten unseren Kunden hier eine komplette Vertikalisierung der IT, sozusagen ein Rechenzentrum in der 'box', bei dem es unwichtig ist, welchen Hypervisor der Kunde bevorzugt. Wichtig ist, dass er eine schnell einsetzbare, leistungsfähige, praktisch schlüsselfertige Lösung ohne großen Administrationsaufwand erhält."

Galvin Chang - Infortrend: " Wir arbeiten mit Microsoft Private Cloud Fast Track"

Herbert Bild - NetApp: "Auch wir sehen die steigende Nachfrage nach 'Out-of-the-box'-Lösungen. Daher haben wir vor mehr als zwei Jahren mit Cisco die Referenzarchitektur FlexPod auf den Markt gebracht und sehr positive Resonanz erhalten. So haben wir heute bereits mehr als 1300 Kunden in 35 Ländern. Allein in Deutschland setzen mittlerweile über 50 Unternehmen auf die Referenzarchitektur, darunter zum Beispiel Langenscheidt und die Börse Stuttgart. Auch die FlexPod-Partnerlandschaft hat sich seitdem stark erweitert und umfasst allein in Deutschland 16 Partner, darunter Computacenter, Fritz & Macziol, Bechtle, Cancom und Stemmer."

Herbert Bild, Solutions Marketing Manager, NetApp: "Auch wir sehen die steigende Nachfrage nach 'Out-of-the-box'-Lösungen. Daher haben wir vor mehr als zwei Jahren mit Cisco die Referenzarchitektur FlexPod auf den Markt gebracht und sehr positive Resonanz erhalten."
Foto: NetApp

"Speziell für den Bedarf an 'Out-of-the-box'-Lösungen beim Mittelstand haben wir im Oktober vorigen Jahres den ExpressPod vorgestellt. Genauso wie der FlexPod kombiniert er Storage-Systeme von NetApp mit Servern und Netzwerkkomponenten von Cisco. Bei der Wahl des Virtualisierungspartners sind wir offen und arbeiten beispielsweise neben VMware auch verstärkt mit Microsoft und Citrix zusammen."

Arndt Müller - Oracle: " Viele Anbieter verstehen unter einer Komplettlösung ein vorkonfiguriertes Paket verschiedener Teile des IT-Stacks, wie Server, Netzwerk und Storage. Oft stammen nur Teile davon vom Anbieter selbst, andere wurden zugekauft. Oracle Engineered Systems sind viel mehr als das: Oracle verfügt über eine eigene Technologie im gesamten IT-Stack und kann daher auch selbst entscheiden, wie und vor allem wo eine Funktion im Stack implementiert wird. Dies ist der Grund, warum Oracle Engineered Systems mehr sind als eine übliche Komplettlösung. Es handelt sich um Systeme, die von Anfang an in allen Ebenen des Stacks aufeinander abgestimmt entwickelt wurden. Einzelne Funktionen wurden genau dort implementiert, wo sie den meisten Nutzen bringen."

"In der Exadata Database Machine werden beispielsweise Teile der SQL-Suchfunktionen direkt in den Storage-Nodes ausgeführt und ermöglichen damit eine vielfach schnellere Suche als in anderen Datenbankkomplettlösungen. Diese Freiheit hat nur ein Anbieter, der über die Entwicklungshoheit für jede Ebene des Stacks verfügt. Oracle bietet mit der Engineered-Systems-Familie, aber auch mit allen anderen Oracle-Systemen, perfekt aufeinander abgestimmte Lösungen, die dem Kunden einen wirklichen Mehrwert verschaffen."

Stefan Weidner - SGI: "SGI hat in den vergangenen zwei Jahren mehrere Produkte auf den Markt gebracht, die genau diese Aufgabenstellung adressieren. SGI MIS (Modular Infinit Storage) wird seinem Namen mehr als gerecht und stellt eine auf dem Markt einmalige Lösung dar, die es erlaubt, hierauf höchstflexibel beliebige Aufgabenstellungen durch den Einsatz unterschiedlichster Software zu realisieren. Hierbei werden große Server- und Diskkapazitäten auf einer Hardwareplattform vereint und durch unterschiedlichste Software für ihre Verwendung optimiert. Der Kunde hat mit einer einzigen Plattform ein ganzes Universum von Möglichkeiten, hierauf sein Geschäft abzubilden. Hierbei bedienen wir alle Anforderungen an ein modernes IT-Design. Ob 'Object-based Storage' für höchstskalierende und globale Cloud-Konzepte oder NAS Lösungen für den Enterprise-Anspruch: Dies kann hier ebenso realisiert werden wie klassische Block-Level-Storage-Systeme mit voller Enterprise-Funktionalität oder schlicht nur extremer Performance ohne überflüssige Funktionalität."

"SGI kann hier mit dem vollen Know-how seiner Professional Services, den gemachten Erfahrungen aus einigen der größten IT-Umgebungen der Welt und einer hoch motivierten und einsatzbereiten Servicetruppe dabei unterstützen, die Anforderungen des Kunden zu analysieren, zu lösen und eine Umgebung zu schaffen. Wenn gewünscht, hilft SGI auch jederzeit beim Betrieb und bei der Weiterentwicklung bereits bestehender IT-Landschaften. Nicht zu vergessen ist hier, dass SGI über ein weltweites Partnernetz verfügt, das dem Kunden zur Verfügung steht und ihm einerseits die Wahl lässt und andererseits eine hohe Verfügbarkeit von Spezialisten sicherstellt."

Clustering statt Tiering

Durch die Parallelisierung von "einfachem" Storage lässt sich eine hohe Performance ohne ein klassisches "teures" Tiering erzielen. Gleichzeitig werden die Trends Kosteneffizienz und Einfachheit bedient. Sehen Sie einen Trend für dieses "Clustering"?

Hans Schramm - Dell: "Das wird spannend, denn die Anwender müssen da natürlich mitspielen. Die IT-Verantwortlichen werden sich das genau anschauen wollen, da es hier ja um das bislang investierte Wissen in vorhandene Lösungen geht. Es bleibt abzuwarten, wer sich für ein Pilotprojekt bereit erklärt. Auch hier ist Dell als Komplettanbieter gut gerüstet, zum einen durch ein sehr ausgefeiltes Storage Tiering in den Arrays selbst, zum anderen durch die Möglichkeit, recht günstigen Storage auf kleinem Raum anzubieten - Server bauen und entwickeln wir ja auch noch."

Dirk Pfefferle - EMC: "Unsere Lösung lautet Unified Storage. Das Tiering läuft hier automatisch ab; die passende Software erlaubt entsprechende Performance-Anpassungen, was den Aufwand für Wartung und Verwaltung erheblich vereinfacht. Ein weiterer Vorteil von Unified Storage ist die Integration mit wichtigen Software-Tools, zum Beispiel von VMware oder Microsoft."

Robert Guzek - Fujitsu Technology Solutions: "Parallelisierung kann kurzfristig eine Alternative darstellen. Mögliche Kostenvorteile bei der Anschaffung werden schnell durch den erhöhten administrativen Aufwand wieder neutralisiert. Mit einer steigenden Systemzahl wird eine parallelisierte Landschaft letztendlich nicht günstiger, sondern wirtschaftlich teuer. In einer Vollkostenrechnung wären unter anderem auch die Service- und Wiederbeschaffungskosten zu berücksichtigen sowie insbesondere die Migrationskosten bei einem Technik-Refresh. Parallelisierung widerspricht dem Konsolidierungsgedanken und erhöht die Komplexität nachhaltig."

Thomas Meier - Hewlett-Packard: " HP hat dies unter dem Stichwort Storage Federation adressiert. HPs 3PAR-StoreServ-Systeme können im Verbund betrieben werden. Dann lassen sich Datenbereiche (LUNs) von einem System auf das andere transferieren - ganz ohne zusätzlichen Virtualisierungs-Layer und transparent für die Applikation. Mit dieser Technologie adressiert HP zugleich das Thema 'Transparent Failover' aus dem Bereich Servervirtualisierung. In Sachen Kosteneffizienz liegt der Fokus aus HP-Sicht auf Thin-Strategien, das heißt der logischen Überquotierung real vorhandenen, physikalischen Speichers. Diese wird von allen modernen Betriebssystemen per T10-Unmap-Funktion unterstützt. Die hardwarebasierte 3PAR-Thin-Technologie (ASIC) und die automatische Umsetzung der T10-Unmap-Funktion senken den Bedarf an Kapazität, Strom, Kühlung und Stellfläche im Rechenzentrum, was die Betriebskosten um bis zu 50 Prozent senkt. Dabei entstehen keine Einschränkungen anderer Array-Funktionen wie beispielsweise Snapshots, Remote Mirroring oder automatisches SubLUN Tiering."

Dr. Georgios Rimikis - Hitachi Data Systems: "Das hängt vom einzelnen Anwendungsfall ab. In wenig komplexen Umgebungen mag das eine erfolgreiche Herangehensweise sein. Aus unserer Sicht steigt jedoch die Zahl komplexer Umgebungen. Auch die Anforderungen hinsichtlich der Leistungsfähigkeit nehmen zu, nicht nur wegen Big Data. Wir verstehen unter Tiering - genauer Dynamic Tiering - das regelmäßige, volldynamische Verschieben von Daten auf Page-Ebene, also 42 beziehungsweise 32 Megabyte Blockgröße. Gerade in Verbindung mit leistungsfähigem Flash verfügen Unternehmen hier über Performance-Vorteile, die auch gefragt sind. Zudem senkt Dynamic Tiering ja auch in einer nicht parallelisierten Umgebung die Speicherkosten. In einem parallelisierten Cluster werden vermutlich nur selten extrem günstige, wenig leistungsfähige Low-End-Systeme stehen. In einer Umgebung mit dynamischem Tiering lassen sich jedoch bedarfsgerecht wirklich alle Speicherebenen einsetzen."

Ralf Colbus, Leading Solution Sales Professional Storage, IBM Deutschland: "Durch Tiering und Aufteilung in Storage-Klassen können Kosten sogar drastisch reduziert werden."
Foto: IBM

Ralf Colbus - IBM: "IBM beherrscht beide Technologien, das heißt, wir können Scale-out, Tiering oder eine Kombination aus beiden Ansätzen wählen. Entscheidend hierfür sind der Anwendungsfall und die Applikation. Bestimmte Applikationen benötigen kein Scale-out, sondern einen Scale-up-Ansatz, um die Performance abzurufen, das heißt eine klassische, monolithische Storage-Architektur."

"Teures Tiering ist hier aber nicht ganz richtig. Unsere Funktion des 'Easy Tierings', bei dem Daten gemäß ihrer Anforderung zum Beispiel auf SSD ausgelagert werden, ist kostenfrei. Durch Tiering und Aufteilung in Storage-Klassen können Kosten sogar drastisch reduziert werden."

Galvin Chang - Infortrend: "Wir haben den Einsatz von Clustern (Dateisystemen) dieser Art in leistungsfähigen technisch-wissenschaftlichen Rechenanwendungen, in der Medienverarbeitung und im Broadcasting-Bereich gesehen. Wir glauben auch, dass viele öffentliche Cloud-Anbieter diese Art von Cluster-Architektur anbieten."

Herbert Bild - NetApp: "Definitiv sehen wir den Trend des Clusterings. Wenn wir heute in ein Rechenzentrum schauen, finden wir viele unterschiedliche Storage-Systeme vor. Häufig muss der Administrator unterschiedliche Betriebssysteme beherrschen, was aufgrund des immer weniger werdenden Fachpersonals und der Geschwindigkeit von IT-Innovationen immer schwieriger wird. Wir setzen hier verstärkt auf eine agile Dateninfrastruktur und somit auf unser Betriebssystem Data ONTAP. Dieses legt sich wie eine Art Überbau über die einzelnen Storage-Systeme und lässt sich somit einfach administrieren. Unser clustered Data ONTAP fügt dem Ganzen noch die Clustering-Möglichkeiten hinzu. In einem virtualisierten Bereich werden alle Storage-Systeme zusammengefügt und können gemeinsam verwaltet werden. Auch eine einheitliche Automatisierung wird so erreicht. Das entlastet die IT-Administratoren ungemein und ermöglicht einen unterbrechungs- und störungsfreien Betriebslauf."

Arndt Müller - Oracle: "Entgegen der landläufigen Meinung führt eine hohe Parallelisierung nicht für jeden Anwendungszweck auch zu einer höheren Performance. Besonders dann nicht, wenn sie mit einer längeren Zugriffslatenz einhergeht, wie es beim Storage Clustering kaum zu vermeiden ist. Weil dies so ist, raten daher auch die meisten Storage-Cluster-Spezialisten zum Beispiel vom Einsatz für Datenbanken ab, denn diese reagieren sehr empfindlich auf hohe Latenzzeiten."

Arndt Müller, Storage Business Development Manager Europe North, Oracle: "Für geschäftskritische Anwendungen mit hohen Performance-Anforderungen wird auch in Zukunft ein Storage Cluster keine vernünftige Wahl sein."
Foto: Oracle

"Gut geeignet ist Storage Clustering für weniger anspruchsvolle Anwendungen, wie Backup und Archive, Website-Daten oder Download Repositories. Oracle bietet mit dem SAM-FS/QFS-Filesystem auf Solaris und einfachem JBOD Storage eine Storage-Cluster-Lösung, die auch gehobenen Ansprüchen genügt. Für geschäftskritische Anwendungen mit hohen Performance-Anforderungen wird auch in Zukunft ein Storage Cluster keine vernünftige Wahl sein."

Stefan Weidner - SGI: "Diese Ansätze sind nicht neu, werden aber immer leichter und zuverlässiger realisierbar durch den weiter zunehmenden Einsatz von Software im Storage-Betrieb. Heute sind die Möglichkeiten hier noch nicht mal im Ansatz ausgereizt. Wir begrüßen diese Entwicklung sehr und haben mit SGI MIS hierfür eine wunderbare Hardwareplattform, aber eben auch die hierfür notwendige Softwarefunktionalität im Angebot, um solche Systeme zu erzeugen und zu betreiben. Die Virtualisierung von Storage steht hier in den Startlöchern, um klassische Storage-Systeme auch im hochkritischen Enterprise-Umfeld abzulösen. Die gesamten Möglichkeiten sind noch gar nicht alle abzusehen."

Cloud-Integration

Wie unterstützen Ihre Produkte die Einbindung von Cloud-Storage, was ist geplant?

Hans Schramm - Dell: "Cloud-Computing und Cloud-Storage sind vielfach eine Frage der Definition. Wir sind zurzeit in der Lage, umfassende Storage-Konzepte auch für die Cloud zu entwickeln und umzusetzen. Das bezieht sich sowohl auf die Datenzugriffe als auch auf Bereiche wie die Zuordnung und Berechnung von genutzten Ressourcen. Entscheidend ist, dass die Lösungen einfach zu verwalten sowie schnell zu erweitern sind und somit eine gute Basis für das Cloud-Storage bieten, was auch immer der einzelne Kunde darunter verstehen mag."

Dirk Pfefferle - EMC: "Die zunehmende Cloud-Nutzung stellt Unternehmen und Service-Provider vor die Herausforderung, Cloud-Storage-Anwendungen in großen und global verteilten Umgebungen zu betreiben. Die Explosion von unstrukturierten Daten, erzeugt von Webanwendungen, Tablets und mobilen Geräten, erfordert sowohl On-Demand-Skalierbarkeit als auch Unterstützung für mehrere Gerätetypen und Anwendungen. Unsere Antwort darauf ist Atmos. Mit der Cloud-Storage-Plattform Atmos steht Unternehmen eine Lösung für die Verwaltung von großen Datenmengen in der Cloud zur Verfügung, die nicht nur die nötige Flexibilität, sondern auch umfangreiche Sicherheitsmechanismen bietet. Erst kürzlich haben wir erhebliche Erweiterungen von Atmos angekündigt, die die Migration einfacher gestalten sowie mehr Leistung und Dichte bieten."

Robert Guzek - Fujitsu Technology Solutions: "Cloud-Storage von Fujitsu umfasst beispielsweise Bereiche wie Online-Storage oder Online-Backup. Cloud-Storage ohne die Möglichkeit, einen zweiten Desaster-Recovery-Standort nutzen zu können, eignet sich - wenn überhaupt - nur für weniger wichtige Daten. Storage aus der Cloud ermöglicht eine Flexibilisierung beim Beschaffen von Storage-Kapazitäten. Ein schnelles Zuschalten oder Abmieten von Kapazitäten ist einfach möglich und begünstigt ein rasches Reagieren auf wechselnde Anforderungen an den Speicher."

Thomas Meier - Hewlett-Packard: "Die HP-3PAR-StoreServ-Systeme wurden Anfang 2000 für den Bereich 'Infrastructure-as-a-Service' entwickelt, dem Vorläufer von Cloud-IT-Services. Sieben der Top-Ten-Service-Provider in den USA setzen 3PAR-StoreServ-Systeme als Cloud-Storage ein. Zudem verwendet HP die Systeme weltweit für die Umsetzung des Cloud-Infrastruktur-Dienstes cCell Services. In Deutschland ist die 3PAR-Storage-Plattform darüber hinaus Bestandteil der Strato ServerCloud. Besonders hervorzuheben sind die Kosteneffizienz durch das einfache Management und die hardwarebasierte Thin-Technologie (ASIC) sowie die Automatisierung über Templates für Storage-Klassen (Disktyp, RAID Level,....): Mit 3PAR-Systemen wird die Storage-Bereitstellung automatisiert und zusätzlich vereinfacht. Das RESTful-Interface und die 3PAR FileServices runden das Paket ab."

Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems: "Alle unsere Produkte und Lösungen sind grundsätzlich für den Einsatz in Cloud-Storage-Umgebungen geeignet."
Foto: Hitachi Data Systems

Dr. Georgios Rimikis - Hitachi Data Systems: "Alle unsere Produkte und Lösungen sind grundsätzlich für den Einsatz in Cloud-Storage-Umgebungen geeignet. Mit unseren Enterprise-Baureihen realisieren wir ohnehin seit vielen Jahren Private-Cloud-Umgebungen, auch wenn solche Umgebungen früher vielleicht einen anderen Namen hatten. Hervorzuheben für Public Clouds ist die Hitachi Content Platform HCP mit ihrer Mandantenfähigkeit. Auf jeden Fall verfügen unsere Produkte über alle nötigen Schnittstellen und Leistungsmerkmale, die erforderlich sind, um sie in Cloud-Umgebungen einzusetzen. HDS wird aber mit Stand heute keine eigenen Lösungen jenseits bestehender Partnerschaften für Cloud Storage anbieten, wir befähigen vielmehr Cloud-Storage-Anbieter."

Ralf Colbus - IBM: "Wir unterstützen Abrechnungsmodelle (Chargeback), einfache Provisionierung, automatische Datenverteilung, End-User-Portale, Openstack, VMware-API, Globale Dateizugriffe oder QoS. Die IBM-Cloud ist über mehrere Data Center verteilt und läuft auf voll virtualisierten IBM-Storage-Systemen.

Galvin Chang - Infortrend: "Speicher von Infortrend unterstützen die Cloud-Speicher-Anbieter Amazon S3, ElephantDrive, DropBox und NTT Docomo."

Herbert Bild - NetApp: "Auch im Bereich Cloud-Storage setzen wir voll und ganz auf unsere Partner. Voriges Jahr haben wir hier zwei große Partnerschaften angekündigt, zum einen mit Citrix und zum anderen mit Amazon Web Services. Mit Citrix arbeitet NetApp zusammen, um Unternehmen einfache und schnellere on-premise, hochskalierbare Datenaustausch- und Storage-Umgebungen zu bieten. So haben Citrix-ShareFile-Kunden Zugriff auf FAS- und V-Series-Storage-Systeme mit clustered Data ONTAP. Das ermöglicht Kunden, die ihre Daten auf Abruf speichern, mit dem NetApp-Betriebssystem Data ONTAP Zugriff auf diese zu erhalten, Performance und Kapazität zu skalieren sowie den Data Center Footprint zu reduzieren."

"Bei Citrix liegt der Schwerpunkt der gemeinsamen Projekte auf der Kombination der NetApp-Unified-Storage-Lösungen und dem weltweit führenden Storage-Betriebssystem Data ONTAP mit der Citrix Cloud Platform. Den Anwendern kann somit eine Lösung zur Verfügung gestellt werden, die die Storage-Nutzung in der Cloud optimiert, die Wartung vereinfacht und den Übergang zu einer agilen Dateninfrastruktur beschleunigt."

"Für Amazon Web Services liefern wir mit NetApp Private Storage eine Enterprise-Storage-Lösung für deren Produkt AWS Direct Connect. Dadurch erhalten Kunden die Möglichkeit, eine dedizierte Netzwerkverbindung schnell und einfach von ihrer existierenden Infrastruktur zu den Amazon Web Services aufzubauen."

"Auch in Deutschland sehen wir diesen Trend verstärkt und starten speziell für den lokalen Markt ein 'Cloud Services Made in Germany'- Programm. Dabei unterstützen wir Service-Provider, um zum Beispiel Dropbox-ähnliche Lösungen für Unternehmen aufzusetzen. Diese stellt Unternehmen sichere und einfache Cloud-Dienste zur Verfügung, die gleichzeitig die hier geltenden Datenschutzbestimmungen erfüllen."

Arndt Müller - Oracle: "Oracle ist mit der Oracle Cloud selbst einer der großen Cloud-Computing-Anbieter: Mehr als 10.000 Unternehmen mit 25 Millionen Benutzern vertrauen bei ihren Daten und Applikationen der Oracle-Cloud. Die Daten in dieser Cloud werden auf vielen hundert Oracle-ZFS-Storage-Clustern gespeichert. Wer die Cloud allerdings nur als 'billigen' Ersatz für eine eigene IT-Infrastruktur sieht, der versteht nicht, worum es hier wirklich geht. Cloud Computing dient der strategischen Transformation der Art und Weise, wie Unternehmen ihre Geschäfte betreiben. Die Welt ändert sich schnell: Globalisierung, Datenexplosion, internetfähige mobile Geräte, Einkaufsverhalten und Begriffe wie 'Customer Experience', der Aufstieg von sozialen Medien und deren Geschäftsmöglichkeiten zwingen Unternehmen dazu, nicht nur ihre IT, sondern auch ihre Geschäftsprozesse völlig neu zu überdenken. Mit seiner langjährigen Erfahrung in den Bereichen Applikationen, Datenbanken, Big Data Analytics und den Engineered Systems kann Oracle Unternehmen auf diesem Weg sehr gut begleiten."

Stefan Weidner - SGI: "Mit Scality hat SGI heute den führenden Hersteller von Object-based Storage als Partner auf der SGI-MIS-Plattform. Hiermit - und noch einer Anzahl weiterer Softwarepartner - kann SGI heute jede Storage-Anforderung im mittleren und großen Bereich nicht nur zuverlässig und hochwertig, sondern auch kosteneffizient und zukunftssicher abbilden. SGI zählt bereits heute einige der größten Cloud-Service-Provider weltweit zu seinen Kunden."

Storage-Herausforderungen

Welches sind die Herausforderungen der Unternehmen - Ihrer Kunden - bei der Storage-Infrastruktur?

Hans Schramm - Dell: "Nicht alle Daten sind gleich, und auch der Zugriff auf Daten oder Datenbereiche ist recht unterschiedlich. Analysten zufolge wird auf 90 Prozent der einmal abgelegten Daten später gar nicht mehr zugegriffen. Diese Daten sollten auf keinen Fall auf schnellen, teuren Storage-Medien gespeichert werden. Also sind wir doch wieder beim Storage Tiering. Das muss aber anpassungsfähig, einfach verwaltbar und ohne viel Aufwand verständlich sein. Da das größte Wachstum bei den unstrukturierten Daten erfolgt, wird das Thema NAS-Handling zu einem wichtigen Punkt."

Dirk Pfefferle - EMC: "Das Thema Storage sollte künftig anders betrachtet werden, denn hier vollzieht sich ein Wandel. EMC spricht deshalb von IT-Transformation. Die IDC-Digital-Universe-Studie 2012 sagt bis 2020 ein Datenwachstums auf 40 Zettabyte vorher. Aber dem Datenwachstum können Unternehmen nicht durch den Hinzukauf von Speicherkapazität begegnen. Es gilt, die Strategie zu überdenken sowie neue Technologien und Ansätze zu verfolgen. Innovative Unternehmen migrieren zu konvergenten Infrastrukturen, bei denen Server, Storage und Netzwerk in einer Einheit zusammengefasst sind. Das bietet die nötige Agilität, Flexibilität und auch Effizienz im Hinblick auf das weltweite Datenwachstum. Das Thema Cloud wird im Storage-Bereich 2013 demnach weiter an Bedeutung gewinnen."

Robert Guzek - Fujitsu Technology Solutions: "Die Herausforderungen sind ähnlich geblieben wie 2012. Das rasant steigende Datenvolumen auf 4,4 Yottabyte bis 2050 (Quelle Horizon) erschwert ein konsistentes Management der Infrastruktur. Ebenso steigen die verfügbaren Budgets nicht im gleichen Maße wie die Datenmengen. Neue Technologien könnten Chancen bieten, den Herausforderungen zu begegnen, aber oft fehlen die Mittel, die nötig wären, um Evaluierungen durchzuführen und entsprechende Änderungen planen zu können. Wenn der Ist-Zustand nicht ausreichend bekannt ist, können die Vorteile neuer Technologien nicht detailliert bewertet werden. Trotzdem müssen Unternehmen mit dem Wachstum und der Komplexität der sich ständig verändernden Speicher- und Performance-Anforderungen Schritt halten. Schulungen und eine klare Unternehmensstrategie können möglicherweise Antworten geben. Storage-Anbieter, die über ihr Portfolio Lösungen für eine durchgängige Storage-Strategie bieten, können helfen, die Herausforderungen zu meistern."

"Während das Thema Big Data 2012 im Regelfall hauptsächlich Großunternehmen betroffen hat, wird sich 2013 auch der Mittelstand damit auseinandersetzen müssen. Big Data macht viele relevante Daten und Know-how nutzbar, das nachhaltig zum Geschäftserfolg beitragen kann. Insbesondere der Analytics-Bereich stellt mit dem Erkennen von Zusammenhängen, Bedeutungen, Mustern, Vorhersagemodellen, Data Mining, Text Mining, Bildanalytik und Visualisierung in Echtzeit die größte Herausforderung dar."

Thomas Meier, Chief Technologist Storage, Hewlett-Packard: "Das Verlangen nach 24/7-Verfügbarkeit, weiter wachsende Datenmengen und der zunehmende Mangel an IT-Spezialisten machen die Konsolidierung der Infrastrukturen zur wichtigsten Herausforderung im Storage-Bereich."
Foto: Hewlett Packard

Thomas Meier - Hewlett Packard: "Das Verlangen nach 24/7-Verfügbarkeit, weiter wachsende Datenmengen und der zunehmende Mangel an IT-Spezialisten machen die Konsolidierung der Infrastrukturen zur wichtigsten Herausforderung im Storage-Bereich. Die Unternehmen brauchen hochverfügbare, automatisierte, einfach zu verwaltende Systeme, die zudem effizient und entsprechend günstig zu betreiben sind. Weil 15 Jahre alte Storage-Architekturen diese Anforderungen nicht erfüllen können, werden sie zunehmend durch Cloud-affine, schlanke Speicherinfrastrukturen ersetzt. HP unterstützt seine Kunden dabei mit modernster Infrastruktur und 'Speicher nach Bedarf'-Konzepten - entweder mit Hardware vor Ort und im Rechenzentrum des Kunden oder mit Kapazitäten aus der Cloud."

Dr. Georgios Rimikis - Hitachi Data Systems: "Eine der großen Herausforderungen nicht nur bei unseren Kunden ist der Wandel bei Kapitalkosten, also CAPEX, und bei den Betriebskosten, also OPEX. Bisher haben die stetig sinkenden Kosten pro Speichereinheit die Kosten für die steigenden Kapazitäten mehr als ausgeglichen. Während der zurückliegenden zehn Jahre ist der Total Cost of Ownership beim Storage um etwa sieben Prozent pro Jahr gewachsen. Die Speicherkapazität hat jedoch um 30 bis 40 Prozent pro Jahr zugelegt. Die Kostensteigerungen rührten von der OPEX-Seite her, die Beschaffungskosten für neue Speicher haben sich stetig verringert. Eine Verdoppelung der Speicherdichte im Zeitraum von 18 bis 24 Monaten ging einher mit einer Preiserosion von 30 Prozent jährlich. Diese Trends werden sich voraussichtlich dramatisch verändern. Virtualisierungstechnologien haben bei Hitachi dazu beigetragen, den TCO um 40 Prozent zu senken, aber die Hardwarekosten verzeichnen derzeit eher einen Trend nach oben. Im Jahr 2020 soll die Preiserosion bei nur noch 20 Prozent liegen. Mehr Funktionen und nach wie vor extrem wachsende Kapazitäten sind dafür verantwortlich. Wir sprechen bereits von Exabyte-Planungen."

Ralf Colbus - IBM: "Die Themen leiten sich direkt aus den Herausforderungen ab, die sich bereits 2012 abgezeichnet haben: Es gibt immer mehr und schneller wachsende Daten, der Kostendruck bleibt bestehen, hinzu kommt der Fachkräftemangel. Für uns bedeutet das, dass wir die Effizienz in der Storage-Infrastruktur durch Technologien steigern müssen. Ein Administrator muss mehr verwalten können, und zwar schneller und einfacher!"

"Das Thema Flash/SSD wird zudem massiven Einzug halten. Daten müssen in Zukunft schneller abgerufen werden können. Hybridkombinationen aus langsamen, hochkapazitiven Drives und SSD sind bereits im Einsatz."

Galvin Chang - Infortrend: "Da die Kapazitäten einzelner Laufwerke auf 3 bis 4 TByte zugehen, können Enterprise-Kunden, die aus Kosten- oder Kapazitätsgründen keinen RAID-6-Schutz verwenden, möglicherweise Probleme durch lange RAID-5-Wiederaufbauzeiten bekommen."

Herbert Bild - NetApp: "Im Jahr 2013 stehen unsere Kunden vor der Herausforderung, dass sie ihre IT noch effizienter gestalten müssen. Das Datenwachstum bereitet ihnen genauso Probleme wie die Zunahme unstrukturierter Daten und geplanter Downtimes. Gerade für E-Commerce-Unternehmen ist jeder Ausfall gleichbedeutend mit Umsatzverlust. Daher ist gerade für diese 2013 das Ziel, auch geplante Downtimes beispielsweise durch Updates abzuschaffen. Da geclusterter Storage in den Unternehmen immer stärker eingesetzt wird, wird die hundertprozentige Uptime nach und nach Realität, und auch geplante Downtime lässt sich so abschaffen."

Arndt Müller - Oracle: "Wie in jedem Jahr gibt es zahlreiche Herausforderungen. Doch drei davon werden viele unserer Kunden besonders beschäftigen:

- Sich ergänzende Architekturen von Server, Software und Storage, wie in Oracle Engineered Systems realisiert, erfordern eine engere Integration der Funktionen in der Organisation von Rechenzentren.

- Der vermehrte Einsatz von mobilen Smart Devices in den Unternehmen wird auch zu Anpassungen in der Data-Management-Infrastruktur führen, um den Datenzugriff und vor allem die Sicherheit zu gewährleisten.

- Unternehmen, die Private- und/oder Public-Cloud-Services einführen, müssen ihre Speicherarchitekturen oft grundsätzlich neu überdenken - besonders dann, wenn sie in der Vergangenheit ihre Daten in eher klassischen und oft starren Speichersilos abgelegt haben. Die Einführung von Cloud Computing bringt hauptsächlich den Vorteil einer sehr flexiblen Nutzung von Ressourcen. Doch dazu müssen auch die IT-Prozessabläufe des Kunden und die grundlegende Architektur seiner IT passen."

Stefan Weidner - SGI: "Die größten Herausforderungen im klassischen Unternehmensumfeld sind weiterhin die Bedienbarkeit der Systeme, der Preis für heutige Systeme und die Flexibilität in der Nutzung. Kunden benötigen eine modulare, flexible und schlicht bezahlbare Lösung für jede Art der Datenhaltung, ob es sich hierbei um Block-, NAS- oder objektbasierten Storage handelt. Wir können das heute für mittlere und große Umgebungen auf einer extrem performanten Plattform anbieten, die alle diese Möglichkeiten in sich vereint. Da es sich dabei im Kern immer um das gleiche System handelt, kann der Kunde mit einem Minimum an Einarbeitungsaufwand bei einem Maximum an Skalierbarkeit und Nutzbarkeit rechnen. Damit wird die eigentliche Zukunftssicherheit einer Investition in die IT-Infrastruktur erreicht."

Ausblick: Weitere Storage-Trends

Welche weiteren allgemeinen Storage-Trends sind zu erwarten?

Hans Schramm - Dell: "Hier sind unterschiedliche Aspekte zu nennen, die letztlich in der Regel auf die Themen laufende Kosten - englisch OPEX für Operational Expenditures - und Investitionskosten - englisch CAPEX für Kapitalkosten - hinauslaufen. Big Data, also die Auswertung sehr großer und komplexer Datenmengen, ist auf jeden Fall ein Thema, nicht nur im Jahr 2013. Daraus resultiert auch ein weiteres Umdenken im Hinblick auf die Storage-Infrastruktur. Hadoop und Open Source sind weitere Aspekte, die uns alle beschäftigen werden."

Hans Schramm, Field Product Manager Large Enterprise, Dell: "Das Datenmanagement und das Datenwachstum bleiben auch im Jahr 2013 wichtige Herausforderungen."
Foto: Dell

"Das Datenmanagement und das Datenwachstum bleiben auch im Jahr 2013 wichtige Herausforderungen. Dynamische und automatisierte Storage-Konstrukte werden sich weiter durchsetzen, das heißt, Daten werden je nach Zugriffshäufigkeit auf dem passenden Medium gespeichert. Informationen mit häufigem Zugriff liegen auf schnellen, aber kleinen und teuren Medien. Sinkt die Zugriffshäufigkeit, werden sie automatisch auf große, langsame, aber günstige Medien verlegt; das Ganze erfolgt unabhängig von der Applikationsebene. Unterstützt wird die Verbreitung solcher dynamischer Tiering-Strukturen durch die Weiterentwicklung der SSDs oder die Integration von Serverspeicher in solche Konstrukte."

"Mittelfristig wird auch das Thema Archivierung, nicht nur aus rechtlichen Aspekten, eine größere Rolle spielen, da ein gut funktionierendes und dimensioniertes Archiv zum einen das Backup-Thema deutlich entspannt und zum anderen die primären Arrays effizienter macht. Kombiniert mit einem dynamischen Storage Tiering entstehen daraus attraktive Lösungen."

Dirk Pfefferle - EMC: "Die ITK-Branche muss ihr Angebot an die Herausforderungen, die durch das Datenwachstum entstehen, anpassen. Das funktioniert über einen lösungsorientierten Ansatz. Neben Cloud Computing, das Unternehmen die nötige Flexibilität für die Speicherung der Daten gibt, sehen wir im Einsatz von Flash-Technologien für die Performance-Steigerung einen weiteren Trend. Ebenso gilt es, die Verfügbarkeit der Daten garantieren. EMC Fully Automated Storage Tiering (F.A.S.T.) verschiebt automatisch aktive Daten an Speicherebenen mit hoher Performance und inaktive Daten an günstige Speicherebenen mit hoher Kapazität. Das ermöglicht eine höhere Performance, niedrigere Kosten und weniger Platzbedarf als bei konventionellen Systemen. Neben Speicherung sehen wir aber auch einen großen Bedarf an Backup- und Recovery-Lösungen, die Daten vor dem Ausfall schützen. Zum einen erfordern gesetzliche Bestimmungen von Unternehmen das Speichern und Archivieren von elektronischen Datensätzen ohne deren Veränderung, zum anderen muss ein Unternehmen sicherstellen, dass sensible Daten nicht verloren gehen."

Robert Guzek - Fujitsu Technology Solutions: "2013 wird die Umsetzung von Storage-Virtualisierung, Cloud Storage oder Unified Storage deutlich präsenter sein. Ebenso werden transparente, kundenorientierte Services eine wichtige Rolle spielen."

"Auch Big Data gehört zu den großen Storage-Trends des neuen Jahres. Hier werden die vier Themenfelder Datenmenge (Volume), Datenvielfalt (Variety), Geschwindigkeit (Velocity) und Analytics je nach Kunde unterschiedlich im Fokus stehen und behandelt werden."

Thomas Meier - Hewlett-Packard: "Big Data, Cloud, Virtualisierung und Automatisierung sind auch im Storage-Bereich die maßgeblichen Trends. Die von ihnen ausgelösten Umbrüche machen es erforderlich, dass Unternehmen größere Datenmengen in noch kürzerer Zeit speichern, durchsuchen und wiederherstellen können. Weil die Cloud hierbei als Speicherort zunehmend Bedeutung erlangt, werden in Zukunft Cloud-gerechte Prozesse, entsprechende Services und eine entsprechende Governance deutlich wichtiger werden."

Dr. Georgios Rimikis - Hitachi Data Systems: "Flash und SSD werden ihren Siegeszug weiter fortsetzen, auch wenn die klassischen drehenden Platten noch die Oberhand behalten werden. Weniger ein Trend als vielmehr ein Thema könnte sich im Bereich der RAID-Gruppen abzeichnen; deren Größe hat inzwischen ein Maß erlangt, das bei Wiederherstellungen vielfach zum Flaschenhals und zum Sicherheitsproblem wird. Hier besteht auf jeden Fall Diskussionsbedarf. Darüber hinaus wird uns Big Data weiterhin auf Trab halten, denn hier stehen wir erst am Anfang. Eine IDC-Umfrage im Auftrag von HDS hat ergeben, dass Mitte des Jahres 2012 lediglich zehn Prozent der Mitarbeiter in IT-Führungspositionen einen Big-Data-Prozess begonnen haben. Etwa 20 Prozent wollten zu diesem Zeitpunkt in den nächsten 24 Monaten damit beginnen. Nur zehn Prozent möchten in diese Richtung gar nicht aktiv werden. Die große Mehrheit von 60 Prozent hat jedoch schlicht noch gar keine Pläne. Eine solche Vogel-Strauß-Taktik werden die Unternehmen aber auf Dauer nicht durchhalten können, sodass es nach Erreichen der kritischen Masse sehr schnell mit Big Data vorwärtsgehen kann."

Ralf Colbus - IBM: "Ich sehe Weiterentwicklungen bei All-SSD/Flash, Application Driven Backup und Restore sowie Application Driven Data Placement. HPC-Systeme mit der entsprechenden Speicherarchitektur werden aufgrund der zunehmenden Wirtschaftlichkeit weiter stark wachsen. Es wird In-Memory-Applikationen sowie globale, konsistente Datenzugriffe geben. Eine weitere Automatisierung und Verschiebung/Delegation der Verantwortung an die End-User (Services abrufen) sind zu erwarten."

Galvin Chang - Infortrend: "SSDs (Solid-State Drives) werden immer beliebter in Enterprise-Speicher-Arrays, und automatisierte Speicher-Tiering-Technologien werden immer wichtiger, um ihre Vorteile voll auszunutzen."

Herbert Bild - NetApp: "Aus unserer Sicht wird 2013 ein Meilenstein für den Einsatz von Flash-Technologien werden. Dabei wird es in erster Linie um die Frage gehen, ob Produkte und Hersteller die Anforderungen erfüllen können, die sich durch den Einsatz dieser Produkte im Unternehmen ergeben. Die Softwareintegration, derzeit noch von nachgeordneter Bedeutung, wird stärker in den Vordergrund rücken. Kriterien bei der Auswahl werden sich gleichermaßen auf Performance-Vorteile und das Datenmanagement konzentrieren. Sobald NAND-Flash mehr und mehr im Fokus steht, werden auch andere Solid-State-Storage-Technologien ins Spiel kommen."

"Ein weiterer Trend, der uns sicherlich im Jahr 2013 stark beschäftigen wird, ist das In-Memory-Computing. Dabei wird SAP HANA als Beispiel von kombinierten OLTP/Analyse-Plattformen diskutiert. Auch das Interesse für NoSQL-Technologien wird zunehmen, da die Kunden kostengünstige Alternativen suchen, um die traditionell sehr unterschiedlichen Applikationsplattformen zu konsolidieren."

Stefan Weidner - SGI: "Wir erwarten eine zunehmend dichte Einbindung von Storage und Storage-Funktionen direkt in Applikationen. Dies gilt primär für Web- und Cloud-Services, jedoch bedingt durch Big-Data-Probleme auch bei Unternehmenssoftware, Anwendersoftware oder mobile Applikationen. Hierfür ist eine Vielzahl von Schnittstellen und professionelle Unterstützung bei der Integration gefragt. Wir beraten und unterstützen unsere Kunden hierbei sehr gerne."

(cvi)