Datenlawinen richtig managen
Big Data verbessert Marktchancen
Licht ins Dunkel bringen
Die Informationen liegen allerdings nicht geordnet vor, sondern fließen unstrukturiert und in Massen - allein der Dienst Twitter generiert 12 Terabyte Daten pro Tag. Unternehmen benötigen also eine Big-Data-Lösung, die auch größte Datenmengen mühelos durchforstet und auswertet. Ein gutes Beispiel dafür ist ein Hadoop-Cluster, das komplementär zu anderen Big-Data-Anwendungen ist. Im Grunde wirkt das Framework wie ein Schwamm, der Informationsfluten aus vielen verschiedenen Quellen aufsaugt und strukturiert. Zusätzlich erlaubt er es, in Verbindung mit entsprechenden Analytics-Lösungen, relevante Daten nicht nur nahezu in Echtzeit und rückblickend zu analysieren, sondern auch Prognosen und Analysen über das Verhalten von Konsumenten zu erstellen. Damit vereint die Anwendung Effizienz, Flexibilität sowie Schnelligkeit und bietet Unternehmen geschäftsentscheidende Einblicke in die Zukunft - und das alles anonymisiert.
- Die vier Herausforderungen von Big Data
Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen: - Die schiere Menge:
Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen. - Der Zeitdruck:
Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen. - Die mangelnde Struktur:
Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc. - Die wachsende Anwenderzahl:
Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.
Auswertungen in Rekordzeit dank In-Memory-Technologie
Wenn es um eine rasante Auswertung von Daten geht und Millisekunden zählen, liegt mit In-Memory Computing (wie etwa SAP HANA) eine Ergänzung zu einem Hadoop-Framework vor. Durch die exakte und schnelle Verarbeitung der Daten eignet sich diese Lösung vor allem für Bereiche, in denen Anwender auf Analysen in Echtzeit angewiesen sind - beispielsweise im Investment Banking, bei der Erkennung von Betrug bei Online-Überweisungen oder an der Strombörse. Dieser Prozess hält sämtliche Daten im Hauptspeicher vor. Unternehmen profitieren von schnellen Echtzeitanalysen, optimierter Planung sowie Simulation, besserem Monitoring und neuen Geschäftsprozessen. Weitere Vorteile entstehen vor allem durch die Kombination der verschiedenen Technologieansätze, je nach Anwendungsfall.
Ein Hauptargument gegen In-Memory-Technologien ist für die meisten Unternehmen allerdings immer noch der Kostenaspekt. Gerade mittelständische Firmen schlagen diesen Weg daher gar nicht erst ein. Hinzu kommt, dass In-Memory-Lösungen häufig bei 6 bis 8 Terabyte bereits an ihre Grenzen stoßen und damit nur für einen bestimmten Datenrahmen geeignet sind. Wer auf die Analyse größerer Datenmengen und einen Langzeitspeicher angewiesen ist, greift daher auf einen Hadoop-Cluster zurück.