Automatisierung, Cloud, Big Data, SSD

Storage-Trends - Speichertechnologien für Unternehmen

Datenmanagement für Big Data

Big Data Analytics wird durch das Wachstum unstrukturierter Daten noch wichtiger. Wie erleichtern Ihre Produkte das Datenmanagement?

Hans Schramm - Dell: "Bei Big Data Analytics werden sich der Storage- und der Serverbereich ergänzen beziehungsweise überlappen. Als Komplettanbieter ist Dell hier gut aufgestellt. Erstens verfügt Dell über ein langjähriges und umfangreiches Know-how bei der Entwicklung von Servern - und dies sowohl bei klassischen Systemen als auch bei den Cloud-Servern. Zweitens bietet Dell ein vollständiges Lösungsportfolio, das es erlaubt, Informationen sehr effizient auf den unterschiedlichen Storage-Medien zu speichern und diese mit Servern zu verbinden. Die Zusammenarbeit mit spezialisierten Partnern rundet das Lösungsangebot ab."

Dirk Pfefferle, Director Enterprise Sales, EMC Deutschland: "Viele Unternehmen stehen beim Thema Big Data Analytics noch am Anfang. Die Technologien und Lösungen sind vorhanden, doch es fehlt an Know-how beziehungsweise dem Wissen, was mit den Daten gemacht werden kann."
Dirk Pfefferle, Director Enterprise Sales, EMC Deutschland: "Viele Unternehmen stehen beim Thema Big Data Analytics noch am Anfang. Die Technologien und Lösungen sind vorhanden, doch es fehlt an Know-how beziehungsweise dem Wissen, was mit den Daten gemacht werden kann."
Foto: EMC

Dirk Pfefferle - EMC: "Viele Unternehmen stehen beim Thema Big Data Analytics noch am Anfang. Die Technologien und Lösungen sind vorhanden, doch es fehlt an Know-how beziehungsweise dem Wissen, was mit den Daten gemacht werden kann. Greenplum Chorus, unsere Analyseplattform für Big Data, entwickeln wir ständig weiter. Erst kürzlich haben wir unsere Greenplum-Chorus-Software als Open-Source-Code veröffentlicht. Das soll die Entwicklung von Anwendungen fördern. Zudem kooperieren wir mit Kaggle. Im Rahmen der Zusammenarbeit integriert EMC den Zugang zur Kaggle-Community in Greenplum Chorus. Die Kaggle-Community besteht aus 55.000 Datenexperten, die sich auf Wettbewerbsbasis an der Ableitung von Vorhersagen aus einem Datenbestand beteiligen. Die jeweils beste Lösung wird vom Auftraggeber des Wettbewerbs honoriert; er erhält im Gegenzug die Rechte an der Auswertungsmethode."

Robert Guzek - Fujitsu Technology Solutions: "Fujitsu Japan bietet hierfür bereits mit eXtreme Transaction Processing, Big Data Parallel Processing und Big Data Complex Event Processing unterschiedliche Lösungen an. Aufgrund der Komplexität der Infrastruktur, die in der Produktvielfalt und dem produktübergreifenden Portfolio begründet ist, ist ein optimal aufeinander abgestimmtes und übergreifendes Systemmanagement sehr wichtig. Fujitsu bietet Kunden eine auf ihre Systemlandschaft abgestimmte Lösung an."

Thomas Meier - Hewlett-Packard: "Durch die konsequente Implementierung der HP-Autonomy-Software in Speichersysteme schafft HP Lösungen, mit denen sich unstrukturierte Daten mit einem bisher nicht gekannten Automatisierungsgrad verwalten, speichern, durchsuchen und wiederherstellen lassen. HP hat die Datenanalyseplattform Autonomy IDOL (kurz für Intelligent Data Operating Layer) bereits als Standard in zahlreiche Storage-Systeme implementiert und wird dies auch mit neuen Versionen und Systemen tun."

Dr. Georgios Rimikis - Hitachi Data Systems: "Wir nähern uns dem Thema von zwei Seiten. Zum einen steigern wir 2013 nochmals die Leistungsfähigkeit unserer Systeme, indem wir unsere Flash-Strategie weiter verfolgen und unser komplettes SAN-Speicherportfolio mit Flash-Speicher anbieten. Sowohl die Hitachi Unified Storage (HUS) als auch die virtualisierungsfähige Variante HUS VM erhalten damit die Technologie, die in der Virtual Storage Platform (VSP) bereits jetzt für Leistungswerte von über einer Million IOPS sorgt. Gerade bei Big Data zählt ja die Leistungsfähigkeit des Speichers in Bezug auf I/Os und Antwortzeit; die Kapazität ist weniger eine Frage, als es der Begriff vermuten lässt. Zum anderen ist unsere enge, bereits 18 Jahre dauernde Zusammenarbeit mit SAP ein großer Vorteil. Allein seit 1998 hat HDS zehnmal den SAP Award für höchste Kundenzufriedenheit gewonnen. SAP ist sozusagen das andere Ende unserer Big-Data-Herangehensweise. Seit einigen Wochen ist zum Beispiel mit der Hitachi UCP Select für SAP HANA eine entsprechend optimierte Lösung verfügbar, die auch In-Memory unterstützt. Auch in weiteren Bereichen, etwa mobile Infrastrukturen, unterstützen die HDS-Lösungen SAP."

Ralf Colbus - IBM: "Das Thema unstrukturiertes Datenwachstum lösen wir auf verschiedenen Ebenen: von Organisationvorschlägen (Beispiel: Ist eine Regel für die Löschung von Daten im Unternehmen eingeführt?) bis hin zu den Ebenen der Subsysteme (automatische Verlagerung von Files gemäß Policies). Datenreduktionstechnologien helfen uns ebenfalls dabei, können aber - je nach Ausprägung - auch negative Effekte haben. Wichtig für uns sind ein skalierbarer Ansatz, der von 'klein' bis 'PB' genügend Speicher liefert, und vor allem ein Ansatz, der unstrukturierte Daten schnell sichern und wiederherstellen kann. Der BI- oder Analytics-Bereich wird 2013 durch Appliances angereichert. Es gibt also mehr 'out of the box'-Lösungen, die schneller eingesetzt werden können."

Galvin Chang - Infortrend: "Für die im Datenmanagement tätigen Techniker ist es bei der Ressourcenplanung hilfreich, die History zu konsultieren. Wir erwarten, dass die meisten Speicher SRM-Funktionen (Storage Resource Management) bieten werden, mit denen sich die Speichernutzung effizient nachverfolgen lässt, zum Beispiel als Kapazitätszuwachsrate, wöchentliche Anforderungen an die Speicher-Performance und anwendungsspezifische Statistiken zu den Speicheranforderungen. Diese historischen Daten spiegeln die tatsächlichen physischen Anforderungen der Benutzer wider und können eine wichtige Rolle bei der Planung der künftigen Speicherressourcen spielen."

Herbert Bild - NetApp: "Auch hier unterstützen wir unsere Analytics-Partner wie Hadoop oder SAP im HANA-Umfeld mit unseren Storage-Lösungen. Dabei gehen wir auf die individuellen Anforderungen der einzelnen Applikationen ein und bieten darauf aufbauend den passenden Storage an. So verlangt Hadoop beispielsweise sehr hohe Performance, Bandbreite und Dichte. Hierfür eignet sich die NetApp-E-Series-Plattform am besten, da sie die Anzahl der Replikationen und somit den Speicherbedarf des Unternehmens verringern kann. Bei SAP HANA hingegen stehen Themen wie Skalierbarkeit, einfaches Management und Hochverfügbarkeit im Vordergrund, wofür sich unsere FAS-Systeme aufgrund ihrer hohen Skalierbarkeit besser eignen."

Arndt Müller - Oracle: "Big Data Analytics dient der Gewinnung von Informationen aus großen unstrukturierten Datenbeständen. Um daraus geschäftsrelevante Erkenntnisse zu ziehen, muss man diese Informationen allerdings mit den strukturierten Daten der klassischen Datenbanken verbinden. Es geht eben nicht nur darum, enorme Datenmengen mit Big-Data-Analytics-Algorithmen, wie zum Beispiel MapReduce, schnell zu verarbeiten. Ohne eine tiefe Integration mit SQL-Datenbanken bleibt das Ganze nur Stückwerk. Oracle hat mit der Big-Data-Appliance eine Lösung an der Hand, die von Anfang an für die Zusammenarbeit mit der Oracle-Datenbank entwickelt wurde. Zusammen mit der Oracle Database Machine und der Oracle Exalytics In-Memory Machine steht unseren Kunden eine voll integrierte Lösung zur Verfügung, die das große Versprechen von Big Data auch wahr macht: Erkenntnisse zu liefern, die sonst nicht zu erlangen sind."

Stefan Weidner - SGI: "Unstrukturierte Daten bleiben weiterhin die größte Herausforderung. Hier muss noch unterschieden werden zwischen den Anforderungen im Big-Data-- und HPC-Umfeld und denen im klassischen Unternehmen. Während heute im Big-Data-Umfeld schon bekannte und zuverlässige Lösungen für Forschung, Lehre, Wissenschaft und einige spezielle weitere Einsatzgebiete existieren und sich tagtäglich im Einsatz beweisen, ist die Welt der Unternehmen noch nicht so weit, unstrukturierte Unternehmensdaten durch Big Data nutzbar zu machen. Zwar finden sich schon einige wenige Software- und Hardwarelösungen auf dem Markt. Jedoch ist derzeit noch nicht zu erkennen, welche Lösungsansätze sich hier langfristig durchsetzen werden. Fakt ist, dass sich künftig eine Vielzahl von Technologien aus dem High-Performance-Computing im Unternehmenseinsatz wiederfinden wird. Ob dies Softwarelösungen sind wie SGI LiveArc (TM) als Digital Asset Management oder große Shared-Memory-Serversysteme wie die SGI UV 2000 (TM) mit einer Kapazität von mehreren Dutzend TByte RAM auch die größten Datenbanken beschleunigen, wird von Fall zu Fall zu entscheiden sein."

"Klar ist mittlerweile aber, dass die klassischen Ansätze traditioneller SQL-Datenbanken hier nicht mehr ausreichen können, um solche Daten nutzbar zu machen. Allein HPC-Ansätze aus einer Kombination von Storage und Computing können hier noch weiterhelfen."