BI-Markt im Wandel

Data Governance und Datenqualität im Big-Data-Zeitalter

Das datengetriebene Unternehmen ist längst keine Illusion mehr. Selbstlernende Maschinen und Analyse-algorithmen durchkämmen riesige Datenberge. Die daraus resultierenden Erkenntnisse werden mehr und mehr zur Basis von wichtigen Unternehmensentscheidungen. Doch das funktioniert nur, wenn die zugrunde liegenden Daten passen und richtig sind. Ansonsten droht das bekannte "Garbage in - Garbage out". Unternehmen müssen sich deshalb verstärkt um Data Governance und Datenqualität kümmern.

Sie arbeitet 24 Stunden, 365 Tage im Jahr, braucht keinen Schlaf und keinen Kaffee - und ist trotzdem stets hellwach. Die Rede ist von "Vital", Board-Mitglied der in Hongkong ansässigen Investoren-Company Deep Knowledge Venture, die sich auf Projekte im Pharma- und Medizinbereich konzentriert. Vital kann wie die anderen Manager im Board von DKV mit über Investitionsvorhaben abstimmen. Nur hebt sie dabei keine Hand - Validating Investment Tool for Advancing Life Sciences, so ihr voller Name, ist ein in Software gegossener Algorithmus, entwickelt von der britischen Softwarefirma Aging Analytics. Die Maschine tut nichts anderes, als riesige Datenmengen zu sammeln, auszuwerten und anhand der so gewonnenen Ergebnisse den Kollegen Ratschläge zu geben.

Data Governance und Datenqualität im Big-Data-Zeitalter
Data Governance und Datenqualität im Big-Data-Zeitalter
Foto: tashatuvango - Fotolia.com

Vital ist ein gutes Beispiel für das derzeit so oft beschworene datengetriebene Business. Das funktioniert allerdings nur, wenn die Daten, auf denen das Analysewerk beruht, korrekt sind. Die notwendige Datenqualität und Data Governance sicherzustellen, ist jedoch alles andere als einfach. Gerade in Zeiten von Big Data, in denen die Menge der Daten, die Zahl der Datenquellen und die Varianz der Datentypen ständig zunehmen, wachsen auch die Herausforderungen. Die Tatsache, dass sich Big Data zunehmend zum Mainstream in vielen Unternehmen entwickle, lasse auch das Risiko steigen, dass Daten verwendet würden, die sich nicht dafür eigneten, die gesetzten Ziele zu erreichen, sagt Michele Goetz, Analystin von Forrester Research.

Das Bewusstsein, etwas in Sachen Data Governance unternehmen zu müssen, scheint bei den meisten Verantwortlichen angekommen zu sein. So hat sich beispielsweise die Zahl der Chief Data Officers (CDOs) im vergangenen Jahr verdoppelt, berichtete Kurt Schlegel, Research Vice President von Gartner, auf dem Business Intelligence und Analytics Summit Mitte Oktober in München. Jemand, der sein Hauptaugenmerk darauf richtet, wie Daten im Unternehmen gesammelt, aufbereitet, verteilt und analysiert werden, dürfte in Zukunft immer stärker gefragt sein - vor allem auch um die Organisation rund um die Datenflüsse in den Griff zu bekommen. Ein zentrales BI-Team, dessen Streben allein darauf ausgerichtet ist, eine "Single Version of Truth" zu finden und zu bewahren, sei heute aber nicht mehr zeitgemäß. Das gehe auf Kosten der für die neuen Analytics-Aufgaben notwendigen Agilität und Flexibilität, warnen die Gartner-Analysten.

Laut einer Umfrage von Forrester Research sind das die Bereiche, auf die die Datenverantwortlichen ihre Bemühungen um Datenqualität fokussieren wollen.
Laut einer Umfrage von Forrester Research sind das die Bereiche, auf die die Datenverantwortlichen ihre Bemühungen um Datenqualität fokussieren wollen.

Data Warehouse, Reporting und die Datenintegration

Aber auch die traditionellen Aufgaben rund um Data Warehouse, Reporting und die Datenintegration müssten weiter erledigt werden, sagt Schlegel. Die Experten von Gartner plädieren daher für einen bimodalen Ansatz rund um die Daten. Einerseits brauche es eine einheitliche klare Strategie, die notwendige Sicherheit und eine zentrale Kontrolle, was mit Daten im Unternehmen passiert. Auf der anderen Seite müssten die Unternehmen aber auch dafür sorgen, Freiraum für neue Ideen rund um Daten zu schaffen. Mitarbeiter müssten über den Tellerrand schauen können. Das erfordere eine flexible und agile Organisation, die auch Fehler toleriere. Gartner geht davon aus, dass sich in den Fachabteilungen im Zuge der stärkeren Verbreitung von Self-Service-BI selbständig Datenspezialisten heranbilden werden. Die Zahl dieser "Citizen Data Scientists" werde in den beiden kommenden Jahren fünfmal so schnell wachsen wie die der speziell ausgebildeten Data Scientists.

Diese Auffächerung versetzt zwar möglicherweise mehr Mitarbeiter in die Lage, ihren Job mit Hilfe von Analytics besser zu erledigen, macht aber zugleich die Aufgabe der für Data Governance verantwortlichen Manager nicht einfacher. Nicht einmal jedes zehnte Unternehmen werde im kommenden Jahr Kontrollmechanismen für die eigenen Self-Service-BI-Aktivitäten eingerichtet haben, mutmaßt Thomas Oestreich, Research Director für den Bereich Business Intelligence und Analytics bei Gartner. Unternehmen müssten sich verstärkt um Data Governance kümmern. Dabei gehe es vor allem darum, die Balance zwischen den neuen Möglichkeiten ausgefeilter Analysewerkzeuge und den damit verbundenen Risiken zu finden. Doch damit tun sich die Verantwortlichen offenbar schwer. Fast jedes zweite Unternehmen habe dafür keine Strategie, berichtet Oestreich unter Berufung auf eine Umfrage.

Governance bedeutet aus Gartner-Sicht zu definieren, nach welchen Regeln im Umgang mit Daten gespielt werden soll. Das erfordere ein Agreement, an das sich alle Beteiligten halten. "Im Fussball stellt schließlich auch kein Spieler das Regelwerk in Frage", vergleicht Oestreich. Governance habe dabei verschiedene Aspekte. Beispielsweise gehe es im Zusammenhang mit Analytics-Governance um Fragen wie: Können wir bestimmte Dinge analysieren, und sollten wir dies auch tun? Bei der Information Governance drehe sich vieles um den Wert bestimmter Informationen. So benötige die Finanzabteilung zu 100 Prozent korrekte Daten, um die geforderten Compliance-Anforderungen erfüllen zu können. Das bedeutet einen gewissen Aufwand, den man in anderen Bereichen möglicherweise nicht treiben muss. Im Marketing zum Beispiel genüge bei bestimmten Fragen eine Daten-Zielgenauigkeit von 80 Prozent.

Wichtig sei, an dieser Stelle sicherzustellen, wer sich um die Governance kümmert, und auch den Erfolg der Maßnahmen zu messen, rät der Gartner-Analyst. Schließlich gehe es darum, definierte Ziele zu erreichen, wie beispielsweise die Kundenabwanderung zu verringern oder den Umsatz zu steigern. "Die Validierung von Datenprozessen wird immer wichtiger", bilanziert Oestreich, "aber auch immer schwieriger." Zunehmend treffen Maschinen und Algorithmen Entscheidungen. Nutzer müssten darauf vertrauen, dass diese Helfer richtig liegen. "Die Welt der Kontrolle verändert sich hin zu einer Welt des Vertrauens."

BI-Markt im Wandel

Die Roadmaps der Anwenderunternehmen rund um Business Intelligence (BI) und Analytics werden sich in den kommenden Jahren drastisch verändern, sagt Neil Chandler, Research Vice President von Gartner: "Die Ära des Data Warehouse ist vorbei." Chandler zufolge gehe es in Zukunft darum, neue Dinge mit Daten auszuprobieren. Ziel dürfe allerdings nicht sein, bessere Data Lakes anzulegen. Vielmehr müsse stets im Fokus stehen, das eigene Geschäft voranzubringen.Mit dem Trend von der klassischen Reporting-BI hin zu Analytics-BI verändern sich die Fragen: Von "Was ist passiert?" über "Warum ist es passiert?" zu "Was wird passieren?" und "Wie können wir bestimmte Dinge eintreten lassen?"

Um auf diese Fragen zu antworten, steht den IT-Verantwortlichen allerdings kaum mehr Geld zur Verfügung. Die IT-Budgets haben sich laut Gartner nach dem drastischen Einbruch im Jahr 2009 kaum mehr erholt. In den zurückliegenden Jahren gab es nur marginale Steigerungen zwischen 0,2 und einem Prozent beziehungsweise leichte Rückgänge. Chandler sieht allerdings noch einen anderen Trend. Immer mehr Investitionen für Analytics-Werkzeuge kämen aus den Fachabteilungen. Der Analyst berichtet von einer Marketing-Abteilung aus Großbritannien, der etwa 50 Millionen Pfund pro Jahr für IT zur Verfügung stehen.