Seeing is Believing - Nur was man mit den eigenen Augen sieht, lässt sich verstehen und verarbeiten. Nur wenn sich Daten in Form von anschaulichen Grafiken manifestieren, lassen sich Anomalien und Muster von Menschen erkennen, Aktionen ableiten und intelligente Schlussfolgerungen ziehen.
Zwar leben wir in einer Welt, in der Algorithmen in vielen Bereichen die Entscheidungen darüber treffen, was beim Eintreten eines bestimmten Ergebnisses oder dem Überschreiten einer Datengrenze zu passieren hat. Aber in ganz vielen Anwendungsszenarien ist und bleibt der Mensch die letzte Instanz. So ist bei der Überwachung von IT-Sicherheitssystemen letztendlich der IT-Admin oder Chief Security Officer derjenige, der die Entscheidungen trifft. Aus der Vielzahl der Informationen und Daten muss der Marketingleiter die finale Schlussfolgerung ziehen, wo das millionenschwere Werbebudget anzulegen ist. Derlei Beispiele gibt es viele. Und in immer mehr Unternehmen müssen Manager, Ingenieure, Produktentwickler oder IT-Administratoren immer mehr Datenquellen in einer immer kürzeren Frequenz beobachten und verarbeiten.
Eine neue Tool-Generation
So wird es in den Unternehmen immer erfolgskritischer, verschiedene Datenquellen integrieren, auswerten und vor allem auch visualisieren zu können. Dies gilt vor allem dort, wo das Verhalten von Systemen quasi in Echtzeit gemessen und entsprechend optimiert werden muss, zum Beispiel bei der Überwachung von Log Files, der User Experience von Webapplikationen oder Sensordaten. Diese weisen die typischen Big-Data-Charakteristika von "Volume, Variety, Velocity, Variability" auf und benötigen eine neue Generation von Monitoring-, Analytics- und Visualisierungswerkzeugen.
Diese neue Generation an Tools zeichnet sich vor allem durch folgende Eigenschaften und Funktionen aus:
Leichte Integration unterschiedlichster Datenquellen und -typen
APIs zur Integration von Echtzeitdaten aus Cloud-Anwendungen
Vielfältige Visualisierungsmöglichkeiten und übersichtliche Dashboards
Herausragende User Experience für einfache Handhabung - nicht jeder ist ein "Data Scientist"
Cloud-basiertes Processing für große Datenvolumina
Machine-Learning und KI für vorausschauende Prognosen (Predictive Analytics)
Eine neue Generation von Analytics-Anbietern wächst heran
Neben den etablierten BI-Anbietern wie z.B. SAS, SAP, Microsoft oder IBM, die ihr Portfolio in den vergangenen Jahren um entsprechende Lösungen und Tools erweitert haben, ist es vor allem eine neue Generation von Anbietern, die hinsichtlich moderner Analytics Services die Marschrichtung vorgibt. Diese haben meist sehr unterschiedliche Schwerpunkte und Hintergründe, bringen aber jeweils sehr wichtige Innovationsimpulse. An dieser Stelle sollen exemplarisch einige der "New Kids on the Block" kurz vorgestellt werden, um die Veränderungen in der BI-Landschaft und den Mehrwert der neuen Lösungen zu illustrieren.
Splunk und Sumologic - Log File-Analyse 2.0
Das 2003 gegründete Unternehmen Splunk ist einer der Wegbereiter für die statistische Analyse und Überwachung von Maschinen- und Logdaten. Die Technologie wird derzeit hauptsächlich von IT-Administratoren zur Überwachung von IT-Infrastruktur eingesetzt, eignet sich aber auch für Application Performance Management und Web Analytics. Mit 1.500 Mitarbeitern und rund 450 Millionen USD Umsatz zählt das börsennotierte Unternehmen mittlerweile zu den Platzhirschen in diesem Marktsegment.
Der wachsende Bedarf an ebenjenen Lösungen bringt immer wieder neue und innovative Player auf den Markt. So stellte 2012 Sumologic seine komplett Cloud-basierte Log-Analytics-Plattform vor. Diese bietet eine besonders hohe Skalierbarkeit und Flexibilität, da alle Log-Daten auf einer verteilten Cloud-Infrastruktur verarbeitet werden. Machine-Learning-Verfahren ermöglichen die intelligente Reduzierung und Gruppierung des Logdaten-Volumens und verschiedene Prognosefunktionen. Interessant für Anwender ist vor allem das Business-Modell. So berechnet Sumologic (wie auch Splunk) seinen Kunden eine Gebühr pro GB Datenvolumen. Zum Einstieg können bei Sumologic bis 500 MB kostenfrei analysiert werden. In der Professional Version kann ein Anwender bis zu 1 GB Datenvolumen pro Tag für 90 USD im Monat verarbeiten. Mit einem sehr erfahrenen Managementteam und rund 80 Millionen Venture Funding von Sequoia, Accel und Greylock & Co zählt Sumologic sicherlich zu den "hot bets" im Markt für Log Analytics und Application Performance Management.
Tableau Software - Visualisierungs-Power für jedermann
Aus dem ehemaligen Stanford-Spin-off ist in den vergangenen zehn Jahren einer der führenden Anbieter von Visualisierungs- und Analytics-Werkzeugen geworden. So beschäftigt Tableau Software weltweit mittlerweile rund 2.000 Mitarbeiter. Auch im D-A-CH-Markt wird unter Leitung von Henrik Jörgensen und Lars Milde die Organisation weiter ausgebaut. Anders als viele Wettbewerber hat Tableau Software frühzeitig den einzelnen Anwender und das Thema User Experience im Umgang mit Daten in den Vordergrund gestellt.
So spielt das Einstiegsprodukt "Tableau Desktop" immer noch eine wichtige Rolle beim Go-to-Market. Fachanwender können ohne Programmiererfahrung und mittels Drag & Drop-Technik umfangreiche Analysen fahren und diese unterschiedlich visualisieren. Tableau Software ist somit einer der frühen Verfechter des Slogans "Democratize Data" und setzt auf die Verbreitung der neuen Analysewerkezeuge über die Vielzahl von Anwendern in den Fachabteilungen - und nicht über einzelne Spezialisten. Mit Tableau Online können Teams auch Daten in der Cloud zusammenführen und visualisieren. Für den Unternehmenseinsatz ist die Version Tableau Server geeignet.
Parstream - Data Processing und Analytics für Massedaten und IoT
Auf der Basis einer eigenen Datenbanktechnologie hat das ursprünglich aus Köln stammende Unternehmen Parstream eine Analytics-Platform geschaffen, die hauptsächlich auf die Analyse von Massedaten im IoT- und Industriekontext spezialisiert ist. In Form einer spaltenorientierten In-Memory-Datenbank vereinigt Parstream die Funktionen relationaler Datenbanken, wie zum Beispiel Tabellen über Joins verbinden oder komplexe Abfragen bewältigen, mit den Vorteilen des No-SQL-Ansatzes der Parallelisierung für schnellere Datenverarbeitung.
Der zum Patent angemeldete "High Parallel Compressed Index" muss nicht dekomprimiert werden, ermöglicht simultanes Durchsuchen und Analysieren und entkoppelt Datenimport und Analyse, sodass die Processing-Geschwindigkeit sich deutlich erhöhen lässt. Das ist besonders dann von Vorteil, wenn die Datenvolumina sehr groß sind. So arbeitet Parstream mit Siemens im Bereich der Entwicklung von Gasturbinen zusammen. Diese enthalten pro Turbineneinheit rund 5.000 Sensoren, die pro Jahr 180 Milliarden Datensätze zur Analyse generieren. Mit sechs weltweiten Vertriebsdependancen und namhaften VC-Investoren hat das 2011 gegründete Unternehmen eine globale Ausrichtung und die Ressourcen auch Projekte mit Großunternehmen zu stemmen.
Blue Yonder - In die Zukunft schauen
Blue Yonder wurde in 2008 vom ehemaligen CERN-Forscher Prof. Michael Feindt gegründet und fokussiert sich seitdem stark auf die Optimierung von Bedarfs-, Absatz- und Preisplanung in klassischen Handelsunternehmen. Das Unternehmen hat seine Analytics- und Prognose-Technologie zu einer Plattform ausgebaut, die seit einiger Zeit auch als Software-as-a-Service (Forward Demand 5.0) verfügbar ist.
Auf diese Weise erschließt sich Blue Yonder das große Marktpotenzial der mittelständischen und kleineren Handelsunternehmen unterhalb von Otto, dm & Co. Das finden auch externe Investoren interessant. So investierte das Private-Equity-Unternehmen Warburg Pincus im Dezember 2014 rund 75 Millionen USD in Blue Yonder.
Das Kapital wird auch verwendet, um das Go-to-Market für weitere branchenspezifische Lösungen und im Segment von IoT und Industrie 4.0 zu stärken. Die ausgereifte Technologie, Führungs- und Kapitalstärke und die Erfahrungen aus einer ganzen Reihe an Kundenprojekten machen Blue Yonder definitiv zu einem derjenigen Unternehmen, das CIOs und CEOs auf der Watchlist haben sollten. Dass das Unternehmen aus Deutschland stammt und seinen Sitz in Karlsruhe hat, zeigt, dass auch hierzulande und trotz Datenschutzebatte hoch attraktive Analytics-Firmen entstehen können.
Die Unternehmensperspektive - Auf dem Weg zur Data-Culture?
Über Big Data und Analytics wurde in den vergangenen Jahren viel diskutiert. Mittlerweile sind auch in Deutschland eine ganze Reihe interessanter Projekte umgesetzt worden, wie zum Beispiel der aktuelle BITKOM-Leitfaden mit über 40 Use Cases zeigt. Aber noch sind viele Unternehmen weit davon entfernt, eine echte "Data Culture" zu entwickeln. Man hat vielfach den Eindruck, dass sich Manager noch zu gern auf Intuition und Baugefühl verlassen, anstatt ihre Entscheidungen primär datenbasiert zu treffen. Mit der nächsten Generation an Analytics- und Monitoring-Tools wird sich dies aber sukzessive ändern. Zumal diese meist Cloud-basiert sind, eine gute User Experience bieten und sich daher keinerlei Hürden wie Implementierung oder Maintenance beim Einsatz ergeben. Das bietet gerade für agile Unternehmen eine gute Chance, sich echte Wettbewerbsvorteile zu sichern. Man sollte sie nutzen. (bw)