Top 100 - Big Data

Vielfalt und Spezialisierung

07.10.2014 von Holm Landrock
Die Ergebnisse des Big Data Vendor Benchmarks Deutschland 2015 zeigen ein deutliches Bild: Diesmal wurden nahezu doppelt so viele Unternehmen bewertet wie im Vorjahr, und es ist Bewegung im Markt.

Die Vorjahresausgabe des Big Data Vendor Benchmarks wurde im Juli 2013 veröffentlicht. Damit umfasst der Vergleichszeitraum etwa ein Jahr. Konnten sich 2013 aus einer Bruttomenge von knapp 140 Unternehmen nur 68 für eine Bewertung qualifizieren, so hat die Experton Group in diesem Jahr über 122 von ursprünglich mehr als 200 Unternehmen bewertet. Damit können die Anwender aus einem nahezu doppelt so großen Pool mit Big-Data-Lösungsanbietern und -Dienstleistern auswählen.

Big Data Vendor Benchmark 2015
Top 100 - Big Data
Die Ergebnisse des Big Data Vendor Benchmarks Deutschland 2015 zeigen ein deutliches Bild: Diesmal wurden nahezu doppelt so viele Unternehmen bewertet wie im Vorjahr, und es ist Bewegung im Markt.
Big Databases & Data Management Solutions
Big Data Operations

Berücksichtigt man alle Bewertungskategorien, lässt sich heute grundsätzlich sagen: Viele Unternehmen haben inzwischen ein gutes bis sehr gutes Angebot. Das liegt daran, dass Big Data keine völlige Neuerfindung ist, sondern eine Weiterentwicklung von Business Intelligence, Business Analytics und Data Warehousing. Die Kombination dieser Lösungen mit aktuellen Technologien beispielsweise aus dem Supercomputing führt dazu, dass die Angebote jetzt auch für die Verarbeitung enorm großer Datenvolumina geeignet sind.

"Deep Dive into the Data Ocean"

Doch auf dem Weg zu großen, automatisierten Analysen über Terabytes und Petabytes an Daten hinweg gilt es noch immer ein paar Stolpersteine zu überwinden. So gibt es doch noch einige Unternehmen, deren Lösungen eigentlich eine Teilmenge an Daten aus dem riesigen theoretischen Daten-Repository herausziehen, um dort mit praktischen GUIs den "Deep Dive into the Data Ocean" zu praktizieren. Heraus kommt dann eben hin und wieder doch Small Data - dafür Laptop, Tablet und PC für die Auswertungen.

Weniger positiv zeichnet sich in einigen Bereichen das Bild der Marktdynamik: Unternehmen, die im Vorjahreszeitraum teilweise eine gewaltige Produkt- und Servicemaschinerie aufgestellt und angeworfen haben, konnten im jüngsten Beobachtungszeitraum (Juli 2013 bis Juni 2014) kaum noch Neues hervorbringen. Das ist jedoch verständlich, weil selbst die großen Player im Markt nicht pausenlos neue Produkte anbieten können.

Leider fehlt aber mitunter der Beweis, dass die entwickelten Produkte vom Markt angenommen worden sind. Referenzprojekte werden von den Anbietern nur zögerlich genannt. Ein Grund dafür mag sein, dass Kunden die Wettbewerbsvorteile aus ihren Big-Data-Anwendungen nicht öffentlich preisgeben möchten. Die geringe Anzahl an Referenz- und Pilotprojekten könnte aber auch dadurch bedingt sein, dass in Deutschland eine vorsichtige Investitionsmentalität herrscht und die Unternehmen Angst haben, Geld für neue, noch nicht vollständig erforschte Big-Data-Lösungen auszugeben.

Zu den Anbietern, die in verschiedenen Kategorien des Benchmarks gut abschneiden, gehört in jedem Fall T-Systems. Dort wurde als wesentliche Neuerung zum Vorjahres-Benchmark eine Hadoop-as-a-Service-Plattform (Kategorie "Big Data Operations") entwickelt, die technisch ausgereift ist und im Serviceangebot ans Optimum heranreicht. Weil wichtige Aspekte wie das "deutsche" Netz der Muttergesellschaft Telekom und die in Deutschland befindlichen Rechenzentren in den 100 Einzelmerkmalen mit bewertet werden, ergibt sich für T-System eine sehr gute Position.

Aber auch SAP-Systemhäuser wie All for One Steeb und Itelligence erlangen mit einem durchdachten Serviceangebot, deutschen Rechenzentren sowie HANA-Lösungsangeboten sehr gute Positionen. Ebenso hat Hewlett-Packard sein Offering in eine attraktive Gesamtform gegossen. Einige Anbieter haben ihre Produkte und Lösungen für Big-Data-Aufgaben entsprechend den technischen Fortschritten bei den Basistechnologien weiterentwickelt.

Der Big-Data-Markt läuft erst noch an

Während einige Indikatoren darauf hinweisen, dass der Big-Data-Markt auch in diesem Jahr insgesamt noch recht unreif ist, sind neben den schon erwähnten Service-Offerings auch viele Datenbanklösungen recht ausgereift.

Hier teilen sich auf Big-Data-Bedarfe erweiterte relationale SQL-basierende Datenbanken das Feld mit In-Memory-Konzepten, Not-only-SQL-Datenbanken und spaltenorientierten Datenbanken. Interessant ist, dass in den 70er Jahren entwickelte Konzepte jetzt durch das Plus an verfügbarer Rechenleistung wieder da sind. Deutlich weiterentwickelt hat sich beispielweise die Kölner Parstream, die nach der anfänglichen Konzentration auf den amerikanischen Markt in den vergangenen Monaten auch Deutschland ins Visier genommen hat.

Sieben Geschäftsmodelle für Big Data
Sieben Geschäftsmodelle für Big Data
Die von BCG identifizierten sieben Haupterfolgsmodelle beinhalten eine Mischung aus B2C- und B2B-Angeboten.
1. Build to Order:
Produkte und Services werden für Kunden maßgeschneidert - zum Beispiel, indem aus Location-Daten verschiedener GPS-Geräte eine individualisierte Verkehrsanalyse für ein städtische Planungsabteilung entwickelt wird. Vorteile dieses Modells seien der besondere Wert der Leistungen und die gesteigerte Kundenzufriedenheit. Dafür müssen die Kunden aber längere Wartezeiten in Kauf nehmen; überdies lassen sich die speziellen Produkte und Leistungen nur schwer weiterverkaufen.
2. Service Bundle:
Verschiedene Angebote werden miteinander verschmolzen. Energiehändler können beispielsweise die Gas- und Stromversorgung und die Energiesparberatung zu einem Service-Paket schnüren. Das kann laut BCG sehr profitabel sein, Konkurrenz aus dem Markt treiben und Cross-Selling-Möglichkeiten eröffnen. Hinterher ist es aber schwierig, die Verkaufspakete wieder aufzulösen. Und den Kunden muss nicht schmecken, dass sie den Wert der einzelnen Komponenten nicht mehr mühelos in Erfahrung bringen können.
3. Plug and Play:
Hier gibt es das immer gleiche Produkt für alle Kunden. Banken können beispielsweise Berichte über das Ausgabenverhalten ihrer Kunden verkaufen, die auf Basis gesammelter und anonymisierter Daten erstellt werden. Derartige Angebote lassen sich leicht zusammenstellen. Die Gefahr: Die Kunden könnte Personalisierung vermissen - und eventuell zur Konkurrenz flüchten.
4. Pay per Use:
Bezahlt wird nur, was auch gebraucht wird. BCG nennt als Beispiel ortsabhängige Skisportversicherungen. So lassen sich gute Margen realisieren; allerdings fehlen stabile Umsatzquellen - und die Akquisitionskosten können ausufern.
5. Commission:
Dauerhaftere Beziehungen lassen sich auf andere Weise etablieren. Zum Beispiel, indem Banken Kreditkartentransaktionen analysieren und Lokalen und Geschäften gegen Gebühr Rabatte gewähren. Diese basieren dann auf den generierten Umsätzen. Das Problem laut BCG ist hier die mangelnde Berechenbarkeit der Geldflüsse.
6. Value Exchange:
In diesem Modell bietet ein Dritter, der zwischen Unternehmen und Kunde steht, Rabatte oder zusätzliche Services an. So lassen sich die vom Marketing gewünschten Gruppen gezielt ins Visier nehmen. Langfristig kann es auch BCG-Sicht aber unerwünscht sein, bei diesen Geschäften einen weiteren Partner im Boot zu haben.
7. Subscription:
Abonnementlösungen sind laut BCG zum Beispiel im Healthcare-Segment möglich. So kann Patienten ein anonymisierter Informationsdienst angeboten werden, über den medizinische Befunde ausgewertet werden. Diese Geschäfte sind einerseits von stabilen und damit berechenbaren Umsätzen gekennzeichnet, dafür sind andererseits die Margen entsprechend niedrig.

Auch Splunk beginnt, sich in Deutschland auszubreiten. Neu in die Bewertung gekommen sind unter anderem MariaDB und Neo Technology. Es sind aber auch, wie eingangs genannt, Unternehmen im Quadranten, die das Momentum aus dem Vorjahr nicht aufrechterhalten konnten. Diese haben ihre Position nur geringfügig verändert. Insgesamt ist das Niveau der Lösungen - trotz der jeweiligen spezifischen Ansätze - insgesamt durchaus vergleichbar. Das bestätigt die eher geringe Spreizung bei der Bewertung der Portfolio-Attraktivität.

Nach Überzeugung der Experton Group wird Big Data sehr schnell produktiv eingesetzt werden, weil das Thema als Weiterentwicklung von Business Intelligence und Analytics und von bestehenden Datenbankmethoden nicht den typischen Hype Cycle einer neuen, disruptiven Technologie durchlaufen wird. Dementsprechend fortgeschritten wird auch der Markt im Bereich der Big Data Operations eingeschätzt.

Bei den Dienstleistungen für das Hosting und den Betrieb von Infrastrukturen für Big-Data-Aufgaben sind einige Anbieter erwähnenswert, die neu in die Bewertung aufgenommen worden sind. Dazu zählen zum Beispiel Itelligence und The Unbelievable Machine Company. Beide nähern sich dem Thema ganz unterschiedlich. Während die Bielefelder Itelligence die Perspektive eines mittelständischen Fertigungsunternehmens einnimmt, hat The Unbelievable Machine Company aus Berlin seine Cloud-Services nicht nur äußerlich auf Big-Data-Software umgestellt. Auch traditionelle Anbieter von IT-Services wie Fritz & Macziol und Freudenberg IT haben sich dem Thema gewidmet und sind in diesen Wachstumsmarkt eingestiegen.

Die Experton Group ist überzeugt, dass die Pionierleistungen der zurückliegenden zwei bis drei Jahre künftig vom Markt stärker gewürdigt werden. Aus eigenen und fremden Daten neue Erkenntnisse zu gewinnen, wird für viele IT-Anwender überlebenswichtig. Deshalb wird uns das Thema Big Data noch lange beschäftigen.