Die besten B2B-Werkzeuge

Neue Generation von Analyse-Tools stellt sich vor

Daten sind das neue Gold - wird gerne proklamiert. Doch große Datenmengen stellen nicht nur IT-Infrastrukturen, sondern vor allem den Menschen als Entscheider vor große Probleme. Hier stellen wir einige Analyse-Tools vor.

Seeing is Believing - Nur was man mit den eigenen Augen sieht, lässt sich verstehen und verarbeiten. Nur wenn sich Daten in Form von anschaulichen Grafiken manifestieren, lassen sich Anomalien und Muster von Menschen erkennen, Aktionen ableiten und intelligente Schlussfolgerungen ziehen.

Nur wenn sich die Datenlawine aus Sensoren, Applikationen und IT-Systemen ohne große Probleme analysieren und visualisieren lässt, können Daten Mehrwert generieren und für bessere Entscheidungen sorgen. Eine neue Generation von Tools und Services steht dafür bereit.
Nur wenn sich die Datenlawine aus Sensoren, Applikationen und IT-Systemen ohne große Probleme analysieren und visualisieren lässt, können Daten Mehrwert generieren und für bessere Entscheidungen sorgen. Eine neue Generation von Tools und Services steht dafür bereit.
Foto: Rawpixel, Fotolia.de

Zwar leben wir in einer Welt, in der Algorithmen in vielen Bereichen die Entscheidungen darüber treffen, was beim Eintreten eines bestimmten Ergebnisses oder dem Überschreiten einer Datengrenze zu passieren hat. Aber in ganz vielen Anwendungsszenarien ist und bleibt der Mensch die letzte Instanz. So ist bei der Überwachung von IT-Sicherheitssystemen letztendlich der IT-Admin oder Chief Security Officer derjenige, der die Entscheidungen trifft. Aus der Vielzahl der Informationen und Daten muss der Marketingleiter die finale Schlussfolgerung ziehen, wo das millionenschwere Werbebudget anzulegen ist. Derlei Beispiele gibt es viele. Und in immer mehr Unternehmen müssen Manager, Ingenieure, Produktentwickler oder IT-Administratoren immer mehr Datenquellen in einer immer kürzeren Frequenz beobachten und verarbeiten.

Eine neue Tool-Generation

So wird es in den Unternehmen immer erfolgskritischer, verschiedene Datenquellen integrieren, auswerten und vor allem auch visualisieren zu können. Dies gilt vor allem dort, wo das Verhalten von Systemen quasi in Echtzeit gemessen und entsprechend optimiert werden muss, zum Beispiel bei der Überwachung von Log Files, der User Experience von Webapplikationen oder Sensordaten. Diese weisen die typischen Big-Data-Charakteristika von "Volume, Variety, Velocity, Variability" auf und benötigen eine neue Generation von Monitoring-, Analytics- und Visualisierungswerkzeugen.

Diese neue Generation an Tools zeichnet sich vor allem durch folgende Eigenschaften und Funktionen aus:

  • Leichte Integration unterschiedlichster Datenquellen und -typen

  • APIs zur Integration von Echtzeitdaten aus Cloud-Anwendungen

  • Vielfältige Visualisierungsmöglichkeiten und übersichtliche Dashboards

  • Herausragende User Experience für einfache Handhabung - nicht jeder ist ein "Data Scientist"

  • Cloud-basiertes Processing für große Datenvolumina

  • Machine-Learning und KI für vorausschauende Prognosen (Predictive Analytics)