Vom "Daten-See" zur "Info-Pfütze"

Warum Big-Data-Projekte scheitern

Besser schrittweise Innovation

Weil so viele Unternehmen dem Start eines eigenen Big-Data Projekts unentschlossen gegenüberstehen, gepaart mit der Angst vor einem Scheitern des Projekts, ist es unerlässlich sich dem Thema Big Data in kleinen Schritten zu nähern. Hierzu eignen sich entweder kostengünstige Anbieter, die einem Unternehmen den Weg zur Analyse großer Daten ebnen können oder die Möglichkeit die eigenen Mitarbeiter in die Lage zu versetzen mit Kopien der eigenen Daten zu experimentieren.

Ein "Kleiner Start / Schnelles scheitern"-Ansatz ist hierbei angeraten, auch hinsichtlich der Tatsache, dass ein Großteil der Big Data Technologie auf Open Source beruht. Auch die Zuhilfenahme von unterschiedlichen Plattformen wie Cloud Diensten tragen dazu bei, nicht nur die Kosten zu senken, sondern eignen sich auch dazu, dass Trial & Error Prinzip zu unterstützen.

Denn beim Thema Big Data geht es in erster Linie darum die richtigen Fragen zu stellen, deswegen sind die eigenen Mitarbeiter mit Ihrer Branchenkenntnis und Erfahrung ein unverzichtbarer Bestandteil einer guten Big-Data Strategie. Doch selbst mit den umfangreichsten Branchenkenntnissen, werden Unternehmen nicht in der Lage sein, alle hierfür relevanten Daten im Unternehmen zu sammeln. Zudem werden sie daran scheitern von Beginn an die wichtigsten Fragen zu stellen. Diese Fehler sollten aus unternehmerischer Sicht erwartet und akzeptiert werden, denn sie sind ein klassischer Bestandteil hin zu einer unternehmensspezifischen Big-Data Analyse.

Eine flexible und offene Daten-Infrastruktur im Rahmen des BDSG erlaubt den Mitarbeitern von Unternehmen sich kontinuierlich zu verbessern, solange bis die Bemühungen erste Früchte tragen. (rw)