Big-Data-Lösung

SAP HANA und Hadoop - ein starkes Team

Hadoop ist das Hype-Thema der Big-Data-Welt. Mit Hilfe des Open-Source-Frameworks lassen sich beliebig große Datenmengen unterschiedlichster Struktur schnell und kostengünstig verwalten, nutzen und auswerten. Doch Hadoop alleine reicht in der Regel für die Anforderungen von Big Data Analytics nicht aus. Für die Auswertung braucht es eine analytische Datenbank, die moderne Analyseverfahren einsetzt.

Empfehlenswert und ökonomisch sinnvoll ist es, kaufmännische und Massen-Datenverarbeitung zu trennen und dadurch den Spezialisten in jeder Disziplin zu vertrauen. Für viele Unternehmen kann ein idealer Mix aus der High-Performance-Datenbank SAP HANA und solider Hadoop-Plattform völlig neue Wege im Bereich der Realtime Analytics eröffnen und gleichzeitig enorme Kosten einsparen. Die Ankündigung des Produktes "SAP HANA Vora" untermauert diese ideale Konstellation. Dieses Werkzeug sorgt für eine noch tiefere Integration zwischen der In-Memory Datenplattform SAP HANA und der Big-Data-Komponente Hadoop.

Der Clou: Verteilte Verarbeitung der Daten

Ein wesentlicher Vorzug gegenüber anderen Systemen ist, dass Hadoop nicht auf teure proprietäre Hardware für die Speicherung und Verarbeitung der Daten baut. Der Vorteil des verteilten Filesystems erstreckt sich auch auf die verteilte Verarbeitung der Daten und kann nahezu endlos über günstige Standardserver skalieren: eine ideale Voraussetzung für die Vorbereitung auf die stetig wachsende Datenflut.

"Hadooponomics": Zahlen sprechen für sich

Hadoop ist nicht nur eine Option, sondern essenziell für Big-Data-Szenarien, so das Marktforschungsunternehmen Forrester Research. Um den finanziellen Nutzen der Open-Source-Software zu unterstreichen, kreierten Forrester-Analysten das Wort "Hadooponomics". Die Zahlen sprechen in der Tat für sich. Nach Angaben von Forrester belaufen sich die Kosten für die großen Hadoop-Distributionen auf 2000 bis 3000 Dollar pro Knoten und Jahr. Ein HANA-Knoten kostet dagegen rund 750.000 Dollar pro Jahr.

Ein namhaftes Unternehmen in Großbritannien stellte die konventionelle Datenspeicherung den geschätzten Kosten für den Einsatz von Hadoop gegenüber. Ein Terabyte in einer Oracle-Datenbank verursache demzufolge Kosten in Höhe von 35.000 Britischen Pfund pro Jahr. Für die Speicherung derselben Datenmenge in Hadoop errechnete das Unternehmen dagegen Kosten von 1120 Britischen Pfund pro Jahr. Angesichts dieser immensen Kostendifferenz ist es ökonomisch sinnvoll, nur die wertvollsten und am häufigsten genutzten Daten in SAP HANA zu verarbeiten und die übrigen Daten in Hadoop vorzuhalten.