Die besten B2B-Werkzeuge

Neue Generation von Analyse-Tools stellt sich vor

30.04.2015 von Carlo Velten
Daten sind das neue Gold - wird gerne proklamiert. Doch große Datenmengen stellen nicht nur IT-Infrastrukturen, sondern vor allem den Menschen als Entscheider vor große Probleme. Hier stellen wir einige Analyse-Tools vor.

Seeing is Believing - Nur was man mit den eigenen Augen sieht, lässt sich verstehen und verarbeiten. Nur wenn sich Daten in Form von anschaulichen Grafiken manifestieren, lassen sich Anomalien und Muster von Menschen erkennen, Aktionen ableiten und intelligente Schlussfolgerungen ziehen.

Nur wenn sich die Datenlawine aus Sensoren, Applikationen und IT-Systemen ohne große Probleme analysieren und visualisieren lässt, können Daten Mehrwert generieren und für bessere Entscheidungen sorgen. Eine neue Generation von Tools und Services steht dafür bereit.
Foto: Rawpixel, Fotolia.de

Zwar leben wir in einer Welt, in der Algorithmen in vielen Bereichen die Entscheidungen darüber treffen, was beim Eintreten eines bestimmten Ergebnisses oder dem Überschreiten einer Datengrenze zu passieren hat. Aber in ganz vielen Anwendungsszenarien ist und bleibt der Mensch die letzte Instanz. So ist bei der Überwachung von IT-Sicherheitssystemen letztendlich der IT-Admin oder Chief Security Officer derjenige, der die Entscheidungen trifft. Aus der Vielzahl der Informationen und Daten muss der Marketingleiter die finale Schlussfolgerung ziehen, wo das millionenschwere Werbebudget anzulegen ist. Derlei Beispiele gibt es viele. Und in immer mehr Unternehmen müssen Manager, Ingenieure, Produktentwickler oder IT-Administratoren immer mehr Datenquellen in einer immer kürzeren Frequenz beobachten und verarbeiten.

Eine neue Tool-Generation

So wird es in den Unternehmen immer erfolgskritischer, verschiedene Datenquellen integrieren, auswerten und vor allem auch visualisieren zu können. Dies gilt vor allem dort, wo das Verhalten von Systemen quasi in Echtzeit gemessen und entsprechend optimiert werden muss, zum Beispiel bei der Überwachung von Log Files, der User Experience von Webapplikationen oder Sensordaten. Diese weisen die typischen Big-Data-Charakteristika von "Volume, Variety, Velocity, Variability" auf und benötigen eine neue Generation von Monitoring-, Analytics- und Visualisierungswerkzeugen.

Diese neue Generation an Tools zeichnet sich vor allem durch folgende Eigenschaften und Funktionen aus:

Die Big-Data- und Analytics-Trends 2015
Self-Service Analytics bauen die vorherrschende Rolle der Daten aus
Ähnlich wie sich die Landschaft der Business Intelligence von statischen Reports zur interaktiven Self-Service Daten verändert hat, so wandelt sich deren Herrschaft. Ansätze wie die Isolation der Daten in einem Unternehmen oder Neutralisation der gesamten Prozesse haben ausgedient. Unternehmen müssen lernen, was Führung bedeutet in einer Welt der Self-Service Analytics. Neue Prozesse und beste Methoden werden sich etablieren, um die Daten zu schützen, während Geschäftsleute ihre Antworten von den Daten bekommen.
Vermarkter und Verkäufer nutzen Social Intelligence
2014 haben Unternehmen erstmals angefangen soziale Daten ernsthaft analysiert. Im kommenden Jahr werden die Verantwortlichen aus diesem Potential ihren Vorteil ziehen. Durch das Beobachten von Online-Unterhaltungen von Beginn an, werden Unternehmen in der Lage sein, wann ein Thema beginnt ein Trend zu werden und worüber die Kunden reden. Soziale Analytics öffnen die Tür zu bedarfsgesteuerter Produktoptimierung. Und als weiteres Resultat wird dieser soziale Vorteil den Wettbewerb vermitteln, dass solche Unternehmen eine unheimliche Fähigkeit haben, in die Zukunft zu schauen.
Die Analytic-Kompetenzen innerhalb eines Unternehmens wachsen
Der heutige Datenanalyst ist vielleicht ein operativer Manager, ein Verantwortlicher der Lieferkette oder eine Vertriebsperson. Neue Technologien, die einfache Nutzung und Browser-basierte Analytics erlauben, lassen Menschen unmittelbar Geschäftsfragen beantworten, während Daten-Analysten weiterhin die komplexen und hochentwickelten Datenanalysen bearbeiten und die Ergebnisse in das Tagesarbeit einfließen lassen. Unternehmen, die diese Entwicklung als strategischen Vorteil erkennen, werden anfangen, den "Alltaganalysten" bei seiner Arbeit mit Daten, Werkzeug und Training zu unterstützen.
Nutzer-Communities im Bereich Software machen den Unterschied
Die Consumerization of IT ist nicht länger eine Theorie, sie ist Fakt. Menschen gebrauchen Technologie, die ihnen Spaß macht und Analyse-Software gehört dazu. Der Wunsch, sich im Unternehmen und außerhalb mit anderen Nutzern auszutauschen und zu sprechen, nimmt enorm zu. Die Unternehmen, die diese Entwicklung unterstützen, haben eine wachsende Gemeinde. Und für potenzielle Kunden wie der Blick auf zufriedene und gesunde Produkt-Gemeinden zu einem wichtigen Entscheidungsaspekt auf dem überfüllten Marktplatz der Angebote.

Eine neue Generation von Analytics-Anbietern wächst heran

Neben den etablierten BI-Anbietern wie z.B. SAS, SAP, Microsoft oder IBM, die ihr Portfolio in den vergangenen Jahren um entsprechende Lösungen und Tools erweitert haben, ist es vor allem eine neue Generation von Anbietern, die hinsichtlich moderner Analytics Services die Marschrichtung vorgibt. Diese haben meist sehr unterschiedliche Schwerpunkte und Hintergründe, bringen aber jeweils sehr wichtige Innovationsimpulse. An dieser Stelle sollen exemplarisch einige der "New Kids on the Block" kurz vorgestellt werden, um die Veränderungen in der BI-Landschaft und den Mehrwert der neuen Lösungen zu illustrieren.

Splunk und Sumologic - Log File-Analyse 2.0

Das 2003 gegründete Unternehmen Splunk ist einer der Wegbereiter für die statistische Analyse und Überwachung von Maschinen- und Logdaten. Die Technologie wird derzeit hauptsächlich von IT-Administratoren zur Überwachung von IT-Infrastruktur eingesetzt, eignet sich aber auch für Application Performance Management und Web Analytics. Mit 1.500 Mitarbeitern und rund 450 Millionen USD Umsatz zählt das börsennotierte Unternehmen mittlerweile zu den Platzhirschen in diesem Marktsegment.

Der wachsende Bedarf an ebenjenen Lösungen bringt immer wieder neue und innovative Player auf den Markt. So stellte 2012 Sumologic seine komplett Cloud-basierte Log-Analytics-Plattform vor. Diese bietet eine besonders hohe Skalierbarkeit und Flexibilität, da alle Log-Daten auf einer verteilten Cloud-Infrastruktur verarbeitet werden. Machine-Learning-Verfahren ermöglichen die intelligente Reduzierung und Gruppierung des Logdaten-Volumens und verschiedene Prognosefunktionen. Interessant für Anwender ist vor allem das Business-Modell. So berechnet Sumologic (wie auch Splunk) seinen Kunden eine Gebühr pro GB Datenvolumen. Zum Einstieg können bei Sumologic bis 500 MB kostenfrei analysiert werden. In der Professional Version kann ein Anwender bis zu 1 GB Datenvolumen pro Tag für 90 USD im Monat verarbeiten. Mit einem sehr erfahrenen Managementteam und rund 80 Millionen Venture Funding von Sequoia, Accel und Greylock & Co zählt Sumologic sicherlich zu den "hot bets" im Markt für Log Analytics und Application Performance Management.

Tableau Software - Visualisierungs-Power für jedermann

Aus dem ehemaligen Stanford-Spin-off ist in den vergangenen zehn Jahren einer der führenden Anbieter von Visualisierungs- und Analytics-Werkzeugen geworden. So beschäftigt Tableau Software weltweit mittlerweile rund 2.000 Mitarbeiter. Auch im D-A-CH-Markt wird unter Leitung von Henrik Jörgensen und Lars Milde die Organisation weiter ausgebaut. Anders als viele Wettbewerber hat Tableau Software frühzeitig den einzelnen Anwender und das Thema User Experience im Umgang mit Daten in den Vordergrund gestellt.
So spielt das Einstiegsprodukt "Tableau Desktop" immer noch eine wichtige Rolle beim Go-to-Market. Fachanwender können ohne Programmiererfahrung und mittels Drag & Drop-Technik umfangreiche Analysen fahren und diese unterschiedlich visualisieren. Tableau Software ist somit einer der frühen Verfechter des Slogans "Democratize Data" und setzt auf die Verbreitung der neuen Analysewerkezeuge über die Vielzahl von Anwendern in den Fachabteilungen - und nicht über einzelne Spezialisten. Mit Tableau Online können Teams auch Daten in der Cloud zusammenführen und visualisieren. Für den Unternehmenseinsatz ist die Version Tableau Server geeignet.

Big Data Analytics im Fußball
Scouting mit Scout7
Bei der Talentsuche überlassen Fußballvereine nichts mehr dem Zufall: Spezialisierte Datenanalysewerkzeuge wie Scout7 erfassen und bewerten jeden Monat rund 3000 Spiele.
Spielerprofil
Zu jedem Spieler gibt es im System eine Profilseite mit umfangreichen Statistiken.
Videoclips
Entscheidende Spielzüge können per Videoclip aufgerufen werden.
Leistungsdaten
Die Bewegung jedes Spielers wird bei jeder Partie exakt erfasst.
Vereinsmanagement
SAP bietet eine umfassende Management-Lösung für Sportvereine, basierend auf seiner Hana-Plattform.
Trainingseinheiten im Film
Beim Training und bei Spielen werden mit Kameras Daten auf Basis von hochaufgelösten Videos erfasst.
Rundum-Lösung
Das Sportgeschäft ist heute eine komplexe Beziehung zwischen Fan, Club und Spielern. Durch Echtzeitanalyse von Daten können die Vereine fundierte Entscheidungen in vielen Bereichen treffen.
Auch in der NBA
Auch in anderen kommerziellen Sportarten wie in der amerikanischen NBA (Basketball) und NHL (Eishockey) kommen die Big-Data-Systeme der SAP schon zum Einsatz.

Parstream - Data Processing und Analytics für Massedaten und IoT

Auf der Basis einer eigenen Datenbanktechnologie hat das ursprünglich aus Köln stammende Unternehmen Parstream eine Analytics-Platform geschaffen, die hauptsächlich auf die Analyse von Massedaten im IoT- und Industriekontext spezialisiert ist. In Form einer spaltenorientierten In-Memory-Datenbank vereinigt Parstream die Funktionen relationaler Datenbanken, wie zum Beispiel Tabellen über Joins verbinden oder komplexe Abfragen bewältigen, mit den Vorteilen des No-SQL-Ansatzes der Parallelisierung für schnellere Datenverarbeitung.

Der zum Patent angemeldete "High Parallel Compressed Index" muss nicht dekomprimiert werden, ermöglicht simultanes Durchsuchen und Analysieren und entkoppelt Datenimport und Analyse, sodass die Processing-Geschwindigkeit sich deutlich erhöhen lässt. Das ist besonders dann von Vorteil, wenn die Datenvolumina sehr groß sind. So arbeitet Parstream mit Siemens im Bereich der Entwicklung von Gasturbinen zusammen. Diese enthalten pro Turbineneinheit rund 5.000 Sensoren, die pro Jahr 180 Milliarden Datensätze zur Analyse generieren. Mit sechs weltweiten Vertriebsdependancen und namhaften VC-Investoren hat das 2011 gegründete Unternehmen eine globale Ausrichtung und die Ressourcen auch Projekte mit Großunternehmen zu stemmen.

Blue Yonder - In die Zukunft schauen

Blue Yonder wurde in 2008 vom ehemaligen CERN-Forscher Prof. Michael Feindt gegründet und fokussiert sich seitdem stark auf die Optimierung von Bedarfs-, Absatz- und Preisplanung in klassischen Handelsunternehmen. Das Unternehmen hat seine Analytics- und Prognose-Technologie zu einer Plattform ausgebaut, die seit einiger Zeit auch als Software-as-a-Service (Forward Demand 5.0) verfügbar ist.
Auf diese Weise erschließt sich Blue Yonder das große Marktpotenzial der mittelständischen und kleineren Handelsunternehmen unterhalb von Otto, dm & Co. Das finden auch externe Investoren interessant. So investierte das Private-Equity-Unternehmen Warburg Pincus im Dezember 2014 rund 75 Millionen USD in Blue Yonder.

Das Kapital wird auch verwendet, um das Go-to-Market für weitere branchenspezifische Lösungen und im Segment von IoT und Industrie 4.0 zu stärken. Die ausgereifte Technologie, Führungs- und Kapitalstärke und die Erfahrungen aus einer ganzen Reihe an Kundenprojekten machen Blue Yonder definitiv zu einem derjenigen Unternehmen, das CIOs und CEOs auf der Watchlist haben sollten. Dass das Unternehmen aus Deutschland stammt und seinen Sitz in Karlsruhe hat, zeigt, dass auch hierzulande und trotz Datenschutzebatte hoch attraktive Analytics-Firmen entstehen können.

Die Unternehmensperspektive - Auf dem Weg zur Data-Culture?

Über Big Data und Analytics wurde in den vergangenen Jahren viel diskutiert. Mittlerweile sind auch in Deutschland eine ganze Reihe interessanter Projekte umgesetzt worden, wie zum Beispiel der aktuelle BITKOM-Leitfaden mit über 40 Use Cases zeigt. Aber noch sind viele Unternehmen weit davon entfernt, eine echte "Data Culture" zu entwickeln. Man hat vielfach den Eindruck, dass sich Manager noch zu gern auf Intuition und Baugefühl verlassen, anstatt ihre Entscheidungen primär datenbasiert zu treffen. Mit der nächsten Generation an Analytics- und Monitoring-Tools wird sich dies aber sukzessive ändern. Zumal diese meist Cloud-basiert sind, eine gute User Experience bieten und sich daher keinerlei Hürden wie Implementierung oder Maintenance beim Einsatz ergeben. Das bietet gerade für agile Unternehmen eine gute Chance, sich echte Wettbewerbsvorteile zu sichern. Man sollte sie nutzen. (bw)